Profesjonalny Hosting



Google Caffeine to spodziewane w krótkim czasie, wielkie uaktualnienie silnika wyszukiwarki Google porównywalne do uaktualnienia Florida z 2003 roku. Nie wiadomo dokładnie jakie zmiany przyniesie, ale Google jak zwykle wygadało się w kwestii kilku, a niektóre Centra Danych Google już podobno pracują na nowym silniku.

Oto czynniki, które zostaną wprowadzone w Caffeine :
  • szybkość : poprawiona zostanie prędkość indeksowania sieci;
  • świeżość : bonus zostanie przyznany świeżym stroną, z często aktualizowaną zawartością; w ten sposób Google chce usunąć z wyników wyszukiwania strony, które się już zdeaktualizowały; 
  • siła społeczności : Google wprowadziło ostatnio do swoich wyników wyszukiwania wyniki na żywo z Twitter-a; zdaniem specjalistów siła mediów społecznościowych wzrośnie; takie serwisy jak Twitter, FaceBook, StumbleUpon, Delicious, Blogger a być może Nasza-Klasa, Pinger, Wykop - będą przekazywały jeszcze większą moc niż dotychczas; największy plus zanotuje jednak FriendFeed;
  • szybkość ładowania się strony : o tym mówi się już od dawna; strony, które ładują się zbyt wolno powodują odrzucenia, wobec tego nie ma powodu, by trzymać takich na wysokich pozycjach w wynikach wyszukiwania;
Uaktualnienie Google Caffeine przyniesie prawdopodobnie minimalne zmiany w SERP-ach. Być może Google rozprawi się z jakimiś metodadmi spamerskimi, ale wielkich roszad w wynikach wyszukiwania nie będzie. Bardziej spodziewam się ich za kilka lat, gdy Google Chrome OS podbije większą część rynku, a Google będzie miało wystarczająco czasu, by przyglądnąć się wynikom. Moim zdaniem ważne jest jeszcze jedno : wyszukiwarka oddaje decyzje odnośnie pozycji dla samych użytkowników. Dowodzi tego personalizacja wyników wyszukiwania dla niezalogowanych oraz strzałki rodem z Web 2.0 w tychże SERP-ach. Ponadto czytałem, że Bing wraz z Yahoo pójdą dokładnie w przeciwną stronę. Oznajmią, że wyniki wyszukiwania ich wyszukiwarek są jednakowe dla wszystkich i nazwą to innowacją.

Co myślicie o zmianach jakie przyniesie Caffeine? Czy będzie wielkie zamieszanie w SERP-ach czy mało znaczący update? Jakie metody spamowania wyszukiwarki odejdą do lamusa? Swoje myśli pozostawcie w komentarzach.

piątek, 25 grudnia 2009 2 komentarze



Pojawiły się nowe wersje (5.21 i 6.15) Drupal. Przyczyną ich wydania jest odkrycie błędu SA-CORE-2009-009 który umożliwiał atak na witrynę metodą XSS poprzez wstrzyknięcie złośliwego kodu do formularza kontaktowego witryny. Aktualizacja lub wprowadzenie nowego patcha do Drupala silnie zalecane.

W nowych wersjach nie ma żadnych nowych ficzerów. Istotną zmianą jest zmiana w pliku .htaccess Drupal 6.15

Lista poprawionych błędów w Drupal 6.15 : http://drupal.org/project/cvs/3060/?branch=DRUPAL-6
Lista poprawionych błędów w Drupal 5.21 : http://drupal.org/project/cvs/3060/?branch=DRUPAL-5

Przed wgraniem aktualizacji warto stworzyć backup bazy danych oraz plików Drupal.
Najprostszą metodą na backup bazy danych jest użycie modułu Bakup and migrate.
Jak łatwo zrobić backup plików
Więcej instrukcji na temat aktualizacji Drupala

Źródło informacji: http://drupal.org/drupal-6.15

czwartek, 17 grudnia 2009 0 komentarze



Nieprawidłowy kod w przeglądarce Google Chrome 3.0.195.33 pozwala na odkrycie DNS-ów i pozbawienie resztek anonimowości w sieci WWW.
Obecnie na forum Google trwa dyskusja na temat dziury. Głównym podejrzanym jest funkcja DNS pre-fetching.
Wokół tematu już narosło wiele nieporozumień. Jedni twierdzą, że winna jest standardowo włączona funkcja DNS pre-fetching, inni twierdzą, że nawet po jej wyłączeniu problem nie ustaje.
Chromium jest projektem open source, którego autorem jest Google. Google Chrome to przeglądarka oparta na tym projekcie. Potwierdzona właśnie luka w Google Chrome 3.0.195.33 może zatem dotyczyć także przeglądarki Chromium.
Kontrowersyjny w tym przypadku jest fakt, iż Google ma interes w tym, by wiedzieć o nas wszystko. Przeglądarka Chrome codziennie wysyła do Google jakieś zaszyfrowane dane. Te same dane wysyła Chromium. Wobec powyższego nasuwa się stwierdzenie:
It’s not bug, it’s feature.
Dla chcących zachować anonimowość polecam instalację obdartego ze szpiegującego kodu Iron-a.

wtorek, 15 grudnia 2009 0 komentarze


Chyba tylko WordPress przwyższa Drupala liczbą modułów. Mimo to poszedłem nieco pod prąd i na swojego CMS-a wybrałem Drupala. Stało się to głównie ze względu na bardziej techniczną otoczkę (w przeciwieństwie do bardzo medialnej w przypadku WordPressa).

Ponieważ tych modułów jest tyle, że nie sposób je wszystkie spamiętać, to cały czas gubię nazwę któregoś z modułów i muszę po raz kolejny szukać. Dlatego powstał ten wpis. Nie jest to spis najlepszych modułów do Drupala, więc jeśli tego szukałeś, to się zawiedziesz. Mogę jedynie polecić stronę Drupal.org na której moduły posortowane są według ilości stron, jaka z nich korzysta. Są też inne kryteria, kategorie - na pewno znajdziesz coś dla siebie.
  1. GTranslate - potrafi przetłumaczyć stronę na 52 języki; dostępna jest wersja Pro, dzięki której te strony zostaną zaindeksowane przez Google; wersja Pro jest płatna; WordPress posiada podobny moduł, tyle, że bezpłatny;
  2. ImageActions - moduł, którego używam do przeróbki uploadowanych obrazków;potrzebowałem go, by dodawać do obrazków tzw. "znaki wodne";
  3. ThemeKey - moduł pozwalający wyświetlać skórki dostosowane indywidualnie pod daną stronę/strony. 
  4. Taxonomy Breadcrumb. Dobry moduł, gdyż ułatwia użytkownikom odnalezienie się na stronie. Pozwala na tworzenie własnych sekcji, które następnie są wyświetlane np. w takiej formie jak :  home >> vocabulary >> term Dodatkowym plusem jest fakt, iż Google uznało taką formę za wartościową i strona Drupal.org wyświetla się w ten sposób : 
  5. Embedded Media Field - prosty moduł do filmów;oparty o CCK;obsługuje kilkanaście największych serwisów video, m.in. YouTube, Vimeo, MetaCafe;korzysta z API serwisów, co pozwala zmienić wygląd video za pomocą kilku kliknięć.
To jest dopiero zalążek artykułu. Jeśli chcesz zobaczyć większą listę (jeden z najlepszych artykułów na tym blogu) przejdź na wpis : Spis najlepszych modułów do Drupala

poniedziałek, 7 grudnia 2009 0 komentarze

Sposobów na zmierzenie ile strona jest warta jest naprawdę wiele: Google Page Rank, polecenie Google Site, Yahoo! Site Explorer, statystyki odwiedzin (np. Google Analytics), Alexa Rank... Teraz wymyślono jeszcze Cache Rank.

Założenie algorytmu Cache Rank jest bardzo proste : Google Page Rank jest niedokładne i nieaktualne. Gwoli ścisłości, chodzi o Toolbar Page Rank, bo jak wiadomo Google nigdzie nie podaje ile Real Page Rank wynosi. Tu nadmienię, że na pewno najlepszym wyznacznikiem jakości strony jest ilość odwiedzin albo ilość unikalnych użytkowników. Mając takie dane można prosto wywnioskować, czy strona jest pomocna, a to przecież dla firmy z mottem "Don't be evil" kwestia być albo nie być. To właśnie dlatego Google wprowadza na rynek kolejne rewelacyjne spyware typu Google Analytics, Google Chrome, Google Chrome OS itd. Niby darmowe narzędzia, a ile to danych w zamian. Niestety z tymi danymi jest taki problem, że dla Google są zbyt cenne, by je publicznie udostępniać. Nieco więcej udostępnia jeszcze Alexa.com, ale to i tak niewiele i ciężko naprawdę z tych danych wyciągnąć jakieś dalej idące wnioski. Dalej idąc jako wiarygodny wyznacznik odpada Google Site i Google Link, Yahoo (bo kogo obchodzi co sobie tam gromadzi ta nie polskojęzyczna wyszukiwarka). Narzędzia do wyceny stron to oczywiście wielkie "g" i nie ma sobie co nimi zaprzątać głowy. Można by jeszcze coś o Bingu napisać, ale ta nowa wyszukiwarka jest dopiero wielkości około 1/5 Google, a więc odpada. Pozostaje Page Rank.

Page Rank wbrew obiegowej opinii tzw. świeżych ekspertów nie jest rankingiem strony, ale rankingiem Page'a, a dokładniej Larry'ego Page, gdyż tak nazywa się człowiek, który go skonstruował. W środowisku pozycjonerów czy specjalistów od SEO panuje zgodna opinia, że PageRank jest w pewnym stopniu wyznacznikiem wartości strony. Działa on w ten sposób, że każda strona, z której otrzymuję linka przekazuje mi jakąś niewielką wartość PageRank. W ten sposób można dojść do wsniosku, że najwyższy PageRank otrzyma strona podlinkowana ze stron z wysokim PageRankiem. Można też domniemać, że wysoki PageRank idzie w parze z wysokim TrustRank i mamy całkiem niezły sposób na wyznaczenie wartośc strony.

Niestety PageRank ma swoje wady. Przede wszystkim łatwiej go zrobić na stronach z małym site, gdyż każdy link wychodzący osłabia nieco PageRank strony. Poza tym PageRank jest tylko obrazkiem i dlatego dla Google jest on sprawą bagatelną. Co innego, gdyby stworzenie obrazka wymagało czegoś więcej, np. poświęcenia zasobów własnych serwerów. Takie właśnie zasoby Google przeznacza i to w ogromnych ilościach na swoje pająki (crawlery), które indeksują sieć World Wide Web. I właśnie ktoś wpadł na to, że skoro tak jest, to Google nie wysyła ich na strony nic nie warte. Wysyła je tam gdzie trzeba... i da się to zmierzyć.

To tyle tytułem wprowadzenia do Cache Ranku. Nie będę kaleczył oryginałów swoim tłumaczeniem. Chcecie wiedzieć jak zmierzyć Cache Rank? Wejdźcie na stronę  http://www.searchenginepeople.com/blog/discover-what-google-really-thinks-of-your-pages.html

sobota, 5 grudnia 2009 2 komentarze



1. Zła wyszukiwarka.


Problem z wyszukiwarkami polega głównie na tym, iż nie są one w stanie wyłapać literówek, odmieniać przez przypadki. Główny błąd popełniany przy programowaniu wyszukiwarki polega na tym, że zamist wyświetlać wyniki według ważności, to wyświetlają według liczby powtórzeń szukanego słowa. Swoje zadanie najlepiej spełni prosty formularz wyszukiwania, chociaż wyszukiwarka z opcjami zaawansowanymi będzię jeszcze lepsza. Ważne jest też, aby wyniki prezentować w sposób podobny do Google.

2. Pliki PDF.


Kolejny błąd to umieszczanie na stronie plików w formacie .pdf zamiast w formacie hipertekstowym. Nie dość, iż zatrzymuje to proces przeglądania Internetu (sic!) to jeszcze sprawia trudności w nawigacji, gdyż jest ona inna niż w przeglądarce, do której użytkownik jest przyzwyczajony. Poza tym wygląd plików .pdf jest zoptymalizowany pod druk i wygląda źle na monitorze. Ponadto taką stronę przegląda się gorzej, gdyż nie ma takich możliwości nawigacji.

3. Niezmienianie koloru odwiedzonych linków.


Dobra nawigacja pozwala lepiej zrozumieć w którym miejscu znajdujesz się obecnie. Znając odwiedzone przez siebie strony łatwiej jest zdecydować gdzie iść dalej. Zmiana koloru odwiedzonych linków ułatwia użytkownikowi unikanie bezwartościowych stron oraz może spowodować ponowną wizytę na stronie, która już wcześniej okazała się pomocna. Poza tym użytkownik widząc sam, że kiedyś już tu był może sobie przypomnieć, że kiedyś już tu był oraz które strony były dla niego wartościowe, a które nie. Może to go też zachęcić do głębszych poszukiwań.

4. Źle sformatowany tekst.


Zwyły, niesformatowany tekst to taki, który na przykład znasz z notatnika Windows lub innego najrpstszego edytora tekstu. Taki tekst jest śmiertelnie nudny i nieczytelny. Nasz wzrok jest tak skonstruowany, że bardziej wyszukuje nieregularności niż regularności. Dlatego warto wzbogacić nasz tekst o pogrubienie, kursywę, podkreślenie i przekreślenie. Dla lepszej przejrzystości tekstu warto dodać paragrafy, nagłówki oraz stosować zasadę KISS, czyli Keep It Simple Stupid. Ważny jest też język naszej prezentacji. Należy pisać dla przeciętnego użytkownika, a co za tym idzie wyjaśniać trudniejsze terminy, które mogą być dla niego niezrozumiałe.

5. Standardowy rozmiar czcionki.


Na rynku znajduje się kilkanaście popularnych przeglądarek i każda z nich posiada nieco odmienne ustawienia standardowe. Standardowy rozmiar tekstu w jednej będzie najbliższy 12px a w innej 16px. To może sprawić, że postawimy użytkownika przed blokiem tekstu, który będzie nienajlepiej wyglądał lub będzie słabo czytelny. Z najnowszych badań wynika, że podstawowy rozmiar czcionki powinien wynosić 16px.

6. Tytuły stron niezoptymalizowane pod wyszukiwarki.


Optymalizacja stron WWW to jeden z tematów najczęście przwijających się w tych stronach, dlatego uważam iż nie ma sensu nikomu wykładać tej wiedzy raz jeszcze. Krótko mówiąc tytuł strony "Witamy" to najprostszy sposób, by popełnić błąd nr 6.

7. Obrazki wyglądające na reklamy.


Użytkownicy są jak pijawki, a im jestem starszy tym bardziej się o tym przekonuję. Chcą super zajefajnych stron WWW, ale broń Boże, by były na nich jakieś reklamy. Najlepiej więc byłoby zatrudnić armię skrzatów do darmowego zapełniania zawartości stron WWW. Niestety nie posiadam takich kontaktów, więc wszystko piszę sam. Ale odbiegłem od tematu. Użytkownicy nie lubią reklam i bez względu na to co o tym sądzisz, ich wzrok omija wszystko co choćby przypomina reklamę. Jeśli zdjęcia produktów, które sprzedajesz wyglądają na banery, to nawet na nie nie spojrzą.

8. Nieprzestrzeganie głównych zasad w tworzeniu stron WWW.


Użytkownicy 99% czasu spędzają na innych stronach niż Twoja. Dlatego też uczą się sposobu, w jaki one funkcjonują i wyciągają z tego wniosek "W jaki sposób powinna funkcjonować Twoja witryna". Jeśli łamiesz któryś z podpunktów ich "prawidłowego funkcjonowania stron WWW" to Twoja strona może zostać uznana za błędną, choć pod każdym względem jest prawidłowa.

9. Otwieranie nowych stron w nowych oknach przeglądarki.


Jedną z implikacji otwierania stron w nowych oknach przeglądarki jest brak możliwości użycia przycisku "Wstecz". W taki sposób użytkownicy mogą sobie odciąć drogę powrotu na Twoją stronę i już nigdy na nią nie wrócić. Poza tym może on nie zauważyć nowo otwartego okna - tyczy się to zwłaszcza użytkowników z małymi monitorami. W końcu użytkownik powinien mieć wrażenie panowania nad sposobem w jaki przegląda Internet. Wszelkie niespodziewane działania wykonane przez jego przeglądarkę uznaje za wrogie.

10. Brak odpowiedzi na postawione pytanie.


Użytkownicy wchodzą na stronę w jakimś konkretnym celu, może to być nawet zakup produktu. Jeśli na stronie nie mogą dostać tego, czego chcieli, to z niej wychodzą. Może się tak zdarzyć, iż pomimo poszukiwany przez nich produkt znajduje się na stronie, to go nie odnaleźli. Jednym z najczęstszych błędów podpadających pod ten podpunkt jest brak ceny produktu na stronie. Bardzo ważne, by cena znalazła się na stronach kategorii oraz w wynikach wyszukiwania. Jej brak może sprawić, że użytkownik wymyśli sobie, iż tego obecnie nie ma na magazynie lub coś w tym stylu. Efekt zawsze będzie taki sam - zakupi produkt u konkurencji i jeszcze powie 10 znajomym jacy jesteście.

Na podstawie : http://www.useit.com/alertbox/9605.html oraz źródeł własnych.

wtorek, 1 grudnia 2009 12 komentarze


Phatch = Photo + Batch
W związku z moim rozpoczęciem współpracy z portalem Tweaks.pl potrzebowałem narzędzie, które ułatwiłoby mi prostą i szybką konwersję obrazków do zadanego formatu. Mam co prawda GIMP-a, ale jest to duża krowa. Na dodatek to mój sprzęt jest już mocno przestarzały i w efekcie samo uruchomienie i załadowanie obrazków zajmuje mi 1.5 minuty.

Dlatego też zapytałem o jakieś inne, fajne rozwiązanie pod Ubuntu. Polecono mi instalację ImageMagick-a. Znam to narzędzie z serwera i wiem, że jest dobre. Niestety, ale po krótkim zapoznaniu się z nim stwierdziłem, iż potrzebuję czegoś nieco bardziej rozbudowanego. Sama opcja powiększania i pomniejszania zdjęć do kilku narzuconych z góry formatów, zmiana w % lub zmiana do zadanego formatu okazała się być niewystarczająca. Ja potrzebowałem coś, co przytnie obrazek do wybranych przeze mnie rozmiarów równocześnie nie zmieniając proporcji obrazka.

Tak oto znalazłem Phatch. Już na wstępnie stwierdziłem, że wygląda znakomicie. Uzmysłowił mi to przyjazny wygląd oraz kilka opcji, które widziałem na zrzutach ekranu, m.in. Watermark. Tak się składa, że miałem pisać dla magazynu komputerowego, więc co mi szkodzi dodać znak wodny, by nikt nie pożyczył sobie mojej pracy? Szybko kliknąłem na free download i tutaj nastąpił mały problem. Cztery wersje do ściągnięcia, w tym najnowsza bodajże na Ubuntu 7 (a ja mam 9). No, ale co tam. Działa.

Przystąpiłem do działania. Odpaliłem urządzenie i tu pierwszy kłopot. Jak się zmienia te obrazki. Myślałem, że Phatch nie działa. Nigdzie nie mogłem znaleźć opcji Otwórz obrazek. Już miałem pogodzić się z fiaskiem, gdy przyszedł mi do głowy pomysł znalezienia pomocy na forum. Tym sposobem znalazłem Wiki Phatcha, Forum oraz wiele innych linków. Przypomniał mi się webshots.bluga.net, który nie tak dawno opisywałem. Oba skrypty były znakomicie udokumentowane. Phatch też był. W takim razie nie może tak po prostu nie działać.

Dopiero po przeczytaniu tutoriala zrozumiałem, że Phatch nie przetwarza obrazków w taki sposób, w jaki to robią zwykłe programy. Tutaj mamy do czynienia z procesorem przetwarzania! Tutorial wszystko wyjaśnił i po chwili kilkanaście zdjęć zostało przyciętych do rządanych rozmiarów oraz wzbogaconych w zaokrąglone narożniki, cieniowanie, znak wodny i wiele innych. Dodam, że przetwarzanie odbywa się strumieniowo, tzn. tworzysz Phatchowi instrukcję co ma zrobić a następnie wybierasz obrazki, lub nawet całe foldery, które mają zostać poddane przemianie.

Na koniec jeszcze jedna, bardzo ważna rzecz. Phatch potrafi zapisywać i odtwarzać procesy. Tak więc, wystarczy że raz stworzymy mu jakiś proces, a później będziesz go tylko otwierać i uruchamiać.

środa, 11 listopada 2009 2 komentarze

Poniżej znajdziesz raport z bezpieczeństwa największych polskich hostingów oraz najniebezpieczniejsze luki. 


Jak wiadomo bowiem, poziom informatyzacji naszego kraju należy do najniższych w Unii Europejskiej. Dzięki takim kampaniom jakie realizuje Home czy Nazwa przeciętny Kowalski może dowiedzieć się, iż posiadanie własnej strony WWW jest w jego zasięgu. Na reklamach widzi serwery za 0zł, domeny za 0 zł, kreatory stron WWW gratis! ...i kupuje tego kota w worku. Nie wie, że to, co jest w środku, to usługa na najniższym poziomie opakowana w piękny marketingowy bełkot. Można się o tym przekonać na wiele sposobów. Jednym z nich są niezależne testy bezpieczeństwa.

Dziś na OSNews poszła wiadomość o tym, jak sprawdzić bezpieczeństwo każdego serwera. Nie mógłbym się powstrzymać i nie sprawdzić dwóch swoich hostingów (NetMark i LinuxPL). Poza tym to kolejna okazja, by podziobać nieco największych graczy na rynku (Home, Netart (Nazwa), Superhost, Az) i pokazać, że ich usługi nie stoją na poziomie, za który biorą pieniądze. Dodatkowo sprawdzę też kilka moich typów (Netarteria, iSwift, Hekko) oraz 8p, który był moim pierwszym hostingodawcą.

HOME.pl
zagrożenia : 105
raport: http://wklej.org/id/200076/

AZ.pl
zagrożenia : 3
raport: http://wklej.org/id/200117/



SUPERHOST.pl
zagrożenia : 38
raport: http://wklej.org/id/200139/

    NETART.pl
    zagrożenia : 8
    NETMARK.pl
    zagrożenia : 26
    raport : http://wklej.org/id/200174/

    LINUXPL.com
    zagrożenia : 18
    raport : http://wklej.org/id/200216/


    8P.PL

    zagrożenia : 
    raport : 


    NETARTERIA.pl
    ISWIFT
    HEKKO
    HOSTIT.PL

    niedziela, 8 listopada 2009 2 komentarze

    Ktoś kiedyś powiedział, że każdy człowiek ma swoje 5 minut sławy. Jeśli ktoś ze swoim blogiem trafi na Stronę Główną serwisu Wykop.pl to przez krótki czas zagości u niego nawet kilkanaście tysięcy użytkowników!



    Chcesz mieć Wykop Effect? Wykup hosting na nazwa.pl, czyli w NetArt.


    O tym co znaczy Wykop Effect przekonał się bloger piszący pod pseudonimem Nomad. Ów człowiek napisał ciekawy artykuł pt. Nie drażnij administratora swego, bo może się zemścić. Ktoś wrzucił ten na stronę serwisu Wykop.pl. W tym momencie muszę napisać, że użytkownicy tego portalu sami decydują, które wiadomości mają się ukazać na tzw. Stronie Głównej, gdzie trafia tylko kilka takich dziennie. Owi użytkownicy zdecydowali, że post Nomada nadaje się to takiego zamieszczenia. W tym momencie na jego stronę zaczęły wchodzić dziesiątki użytkowników, co wywołało Wykop Effect. Jego strona została odcięta od sieci przez hosting, za którego płaci!

    Wykop effect (ang. Digg effect) - zjawisko polegające na przekroczeniu dopuszczalnej przepustowości danego serwera w wyniku aktywności Wykopowiczów. W związku z coraz większą liczbą użytkowników Wykopu, gdy znalezisko zostanie umieszczone na głównej, niektóre serwery nie są przygotowane na tak duży wzrost liczby odsłon, w wyniku czego nie potrafią one tego przetrzymać. Efektem tego jest awaria strony na okres - zazwyczaj - do kilku dni.

    Kto jest winien?

    Zamiast mieć swoje 5 minut sławy, Nomad ma pretensję do swojego hostingodawcy. Obiecuje nawet, że sprawa swój finał może znaleźć w sądzie. Trudno bowiem winić za tę sytuację blogera, który został omamiony przez wyskakujące wszędzie, nachalne reklamy Nazwa.pl (gdzie może także wykupić przytoczony tutaj hosting). Ciężko mieć pretensje do hostingodawców o takie działania. Prawdopodobnie, jeśli nie wyłączyliby tej strony, to istnieje ryzyko, że na przeciążenia zostałyby narażone także inne serwisy, hostowane na tym samym serwerze.

    Osobiście odradzam każdemu korzystanie z komercyjnych hostingów, takich jak Home.pl, Nazwa.pl, Superhost.pl czy Az.pl Szczerze mówiąc są to słabe i kiepskie hostingi, a ich Biuro Obsługi Klienta stanowią ludzie, którzy nie mają zielonego pojęcia o działaniu serwerów.

    Przykładowo, podczas problemu z Drupalem na Az.pl (500 Internal Error) zgłosiłem się do BOK i postawiłem pytanie "What's up?" Po dwóch godzinach udzielono mi odpowiedzi, że wina leży po mojej stronie, a konkretnie winny jest skrypt JavaScript. ROTFL! Zdawałem sobie sprawę z tego, że winę ponosi z pewnością Drupal, który po prostu przekroczył ilość przydzielonej pamięci serwera PHP. Na Az.pl pomimo upływu dwóch godzin i mojego uporu (skrypt JavaScript na pewno nie powodował błędu) nie potrafili znaleźć przyczyny. Na hostingu za 50zł / rok trafną odpowiedź uzyskałem po 5 minutach! Dodam, że było to w godzinach wieczornych. U innych czekałbym na odpowiedź aż do następnego dnia!

    Właśnie dlatego sam polecam nieznany nikomu hosting (polecam np. : NetMark), a nie taki Home, Nazwę, czy inny syf.

    Z drugiej strony, sądzę że bloger też nie jest bez winy. Blokowanie kont, gdy przekraczają limit użycia serwera to norma. Niech się Nomad cieszy, że w ogóle NetArt przywrócił mu usługę zamiast grzecznie powiedzieć: "Good Fight, Good Night" czy coś mniej wyszukanego na pożegnanie.

    Dlaczego powstał ten wpis.

    Jeśli postawiliście swój blog na WordPressie, hostujecie go w NetArt, a o optymalizacji tego skryptu wiecie tyle co ja o Wyspach Samoa, to nie liczcie, że ruch z Wykopu będzie pozytywny. Módlcie się raczej, by go nie było. 

    Niestety przytoczony tu przypadek Nomada nie jest jedyny. Około 1.5 roku temu na Stronę Główną Wykop.pl trafił zupełnie podobny przypadek (http://www.wykop.pl/link/85633/netart-nazwa-pl-blokujemy-bo-tak).

    Apeluję więc, by nie wykupywać usługi u tych, którzy reklamowali się najintensywniej. Nie warto też rozumować kategoriami "Tam hosting wykupiło najwięcej ludzi".  Jak widać na powyższym przykładzie taka zagrywka nie sprawdza się.  Jeśli ktoś reklamuje się, tak jak Nazwa.pl, Home.pl lub Az.pl to oznacza, że za reklamę płaci użytkownik. Im więcej tych reklam, tym wyższa cena doliczana do usługi. Wszystko po to, by pokryć koszt intensywnej reklamy. A ludzie to kupują!

    Nie warto też iść za stadem i kupować hostingu tam, gdzie hostuje się najwięcej osób. To nic innego jak owczy pęd. Każda strona ma inne wymagania i pod te wymagania należy szukać rozwiązania. Zawsze też można poszukać opinii kogoś bardziej doświadczonego. Wystarczy wejść na jakieś forum komputerowe i zapytać czy taki skrypt pociągnie na takim hostingu lub ewentualnie jaki hosting forumowicze polecają. Zazwyczaj jest tak, że dostaniecie dużo odpowiedzi i sami wywnioskujecie, który hosting jest najlepszy.

    Do Hostingodawców


    Na koniec chciałbym jeszcze dać radę dla wszystkich, którzy prowadzą serwer. 

    Nie zachowujcie się jak NetArt!. W tym przypadku NetArt mógł się zachować znacznie lepiej. Zamiast blokować konto mógł przecież blogerowi zaproponować darmową reklamę w zamian za utrzymanie strony online. Tak się nie stało. Niestety, ludzie biorący 300 zeta za coś, co nie przeżywa nawet efektu Wykopu swoją kreatywność ograniczają do zalania WWW swoimi ADsami.

    Nie ważne ile płacisz, cena nie jest adekwatna do poziomu usługi. Pomyślcie o tym!


    Podziel się doświadczeniem z czytelnikami.

    Jeśli masz jakieś doświadczenia z hostingami i Wykop Effectem to pozostaw tutaj komentarz! Razem możemy stworzyć listę hostingów przyjaznych Wykopowiczom!

    wtorek, 3 listopada 2009 4 komentarze

    Truskawkowy Milioner to pozycja o Robercie Maicherze, człowieku, który opowiada jak zarobił pierwszy milion i to dzięki Internetowi! Słyszeliście wcześniej o czymś takim? Pewnie tak, ale nie wiecie jak to zrobić. Dlatego sądzę, że Truskawkowy Milioner jest też dla Was. Myli się jednak ten, kto sądzi, iż znajdzie w niej jakieś gotowe przepisy.

    Dziś kolega pyciak blipnął o tym, że zastanawia się co zrobić z serwisem, który niespodziewanie zaczął mu przynosić pieniądze. Miałem podobny przypadek. Serwis, który był jedynie testem oprogramowania nagle stał się popularny. I wiecie co? Obecnie jest on offline! Zamiast skupić się na jego rozwoju, bo w końcu można powiedzieć, że on w jakiś sposób wypalił, to ja robię dokładnie odwrotnie i rozwijam inne serwisy. Bład! Dopiero teraz mam tego świadomość, a kolega pyciak być może nigdy jej mieć nie będzie.

    Właśnie taka jest ta pozycja. Jest to studium konkretnych sytuacji, konkretnych przypadków. Przy czym sam autor mówi, że nie zaleca kopiowania cudzych pomysłów. Uczy raczej wyciągać wnioski z porażek i dzięki nim buduje swój sukces, by w końcu stać się milionerem. Autor porusza przy tym takie ciekawe kwestie jak : zarabiane i oszustwa w sieci, nierzetelni partnerzy, programy partnerskie, handel domenami czy tworzenie zarabiających serwisów WWW.

    Nie zwykłem tracić czasu na książki. Mam dość siedzenia w Internecie po kilka godzin dziennie. Gdyby ktoś kazał mi jeszcze czytać książki, to byłaby chyba najokrutniejsza dla mnie tortura. Dlatego nie przeczytałem Truskawkowego Milionera. Przesłuchałem go. Jak? Bardzo prosto. Księgarnia internetowa NexTo ma w ofercie nagrania w formacie .mp3, czyli tzw. audiobooki.

    Co mogę powiedzieć na ten temat, to tyle, że przekonałem się do audiobooków. Nie mam normalnie czasu na książki. Tak się jednak składa, że pracuję na produkcji. Praca to nudna i monotonna, dlatego też audiobook bardzo mi ją umilił. Przyznam, że momentami nawet oczy mi się zaszkliły, a innym razem uśmiechałem się do siebie. W dniu odsłuchania audiobooka byłem też jakiś taki bardziej wyluzowany. To dlatego, że sprawił mi on dużo przyjemności. Myślę też, że słuchanie audiobooka więcej Wam da niż słuchanie radia lub gwaru w autobusie podczas dojazdu do szkoły/pracy.

    Nie wiem jak Wy, ale mnie spodobało się. Dziś wybrałem kolejnego audiobooka, który przesłucham - czas bowiem podszlifować swój angielski.

    wtorek, 27 października 2009 0 komentarze

    Miniaturki stron, zwane czasem zrzutami to obrazy stron wykonywane za pomocą narzędzi po stronie serwera. Do ich wykonania nie jest potrzebna absolutnie żadna wiedza z zakresu administracji serwerami. Istnieją bowiem serwisy online umożliwiające wykonanie miniaturki po podaniu adresu strony i kilku dodatkowych danych takich jak rozdzielczość, czas przechowywania w pamięci (cache), klucz API itp. W poniższym poście porówam cztery dziś istniejące serwisy: Thumbshots, Webthumb, Websnapr i PageGlimpse. Omówię ich funkcjonalność, cenę oraz spróbuję doradzić który dla kogo jest odpowiedni.

    Thumbshots.org i Thumbshots.net to dwa bliźniacze i chyba najstarsze serwisy wykonujące miniaturki stron. Pierwszy jest darmowy, a drugi odpłatny. Thumbshots oferuje także bardzo atrakcyjny model cenowy.
    Koszt: darmowy lub odpłatny (4.99$/miesiąc)
    Rozmiary: od 120*90 (darmowa) do 480*360 (odpłatna)
    Znak wodny: Tak (Nie w wersji odpłatnej)
    Cache: ?


    Websnapr
    Websnapr to bardzo dynamicznie rozwijający się serwis. Dzieje się tak za sprawą dodawanego do miniturek znaku wodnego. Websnapr ofeuje 3 modele pricingu Dopiero w trzecim, najdroższym usuwa miniatury.
    Koszt: w zależności od programu: darmowy, standardowy 45$/miesiąc lub indywidualny
    Rozmiary: od 90*70 i 202*152 (darmowy), 430*300 i 640*480 (standardowy) do 1024*768 (indywidualny)
    Znak wodny: Tak (darmowy), Nie (standardowy)
    Cache: 30 dni (darmowy), 14 (standardowy), dowolny (indywidualny)


    PageGlimpse 
    Zasługujący na wyróżnienie serwis oferuje miniaturki w dużych rozdzielczościach za darmo. Kolejnym plusem jest to, że nie dodają własnego znaku wodnego. Niestety, ale problem stanowi odpowiednie renderowanie strony, przez co czasem zamiast zrzutu widzimy stronę odmowy dostępu lub pustą, białą ramkę.
    Koszt: darmowy
    Rozmiary : 150*108, 280*202, 430*310
    Znak wodny: Nie
    Cache: ?


    Webthumb
    Serwis, pod którego wrażeniem jestem do dziś. API sprawia wrażenie świetnie dopracowanego. Oferuje nam aż dwa różne API: easythumb i standard. Jako jedyny z serwisów oferuje rozmiar Excerpt będący zrzutem lewej, górnej części strony (tam, gdzie zazwyczaj występuje logo). Każdy zrzut kosztuje pewną ilość punktów. Ta ilość jest zależna od użytych opcji, a tych jest całkiem sporo. Prócz Excerptu mamy do wyboru kilka rozdzielczości, zrzut całęj strony, zrzut o dowolnym rozmiarze, oraz 3 dodatkowe efekty. Jest tego naprawdę sporo i prezentuje się znakomicie. W zależności od wybranych opcji płacimy odpowiednią ilość kredytów. Wprawdzie dostajemy na start 100 kredytów, ale jest jeden problem, mianowicie cache działa maksymalnie 30 dni. Po tym okresie zrzut wykonywany jest na nowo. Kredyty nie są drogie, ale to właśnie ich cena mnie odstraszyła. 100 kredytów miesięcznie - to było za mało na mój niezaraniający serwis. Musiałbym dokupywać punkty, a te nie są tanie. Ostatecznie wybrałem PageGlimpse, a jeśli mój serwis okaże się być dobrym pomysłem, to z pewnością przejdę na ich usługi.
    Koszt: do maksymalnie 100 miniatur za darmo, powyżej w zależności od kosztu kredytów
    Rozmiary: w zależności od API - easythumb : 80*60, 160*120, 320*240, 640*480, 400*150) lub standard : dowolne
    Znak wodny: Nie
    Cache: 1-30 dni

    poniedziałek, 26 października 2009 1 komentarze

    Ostatnimi czasy próbuję spieniężyć niewielki ruch na kilku moich stronach. Przetestowałem Google AdSense już dawno temu, a obecnie testuję AdTaily. W niedalekiej przyszłości mam nadzieję dodać do tego jeszcze Blogvertising, który prawdopodobnie pojawi się na Made In 3W wraz ze sprawdzonym Google AdSense. Ale wpis nie będzie o tym...

    Szukają alernatywy dla AdSense znalazłem AdTaily, które można zainstalować błyskawicznie. Niestety, pomimo niskiej ceny, jaką sobie ustawiłem reklamodawcy nie kwapią się do wykupu boksów 125x125 px. (w boksie AdTaily na Made In 3W widnieją obecnie boksy reklamowe moich serwisów). Tak więc, zmusiłem się do działania i przeszukałem Internet w poszukiwaniu ceny za reklamę. Efektem owych poszukiwań jest wpis Ile kosztuje 1000 wyświetleń reklamy, w którym porównują koszty, jakie przyjdzie zapłacić reklamodawcom na różnych stronach. To, co mnie zaskoczyło podczas owych poszukiwań, to stosunkowo wysoka rozbieżność pomiędzy reklamodawcami podyktowana w zasadzie niczym.

    Jaka jest różnica pomiędzy reklamą wyświetloną 1000 razy na Onet.pl a reklamą wyświetloną np. na Kubicomania.net? I tu i tu mamy do czynienia z tysiącem wyświetleń. Różnica polega na ilości użytkowników, ale cóż z tego, skoro reklama ta dotyczy 1000 WYŚWIETLEŃ?? Na dodatek porównywałem podobne formaty reklamy. Coś jest więc nie tak. Czyżby Onet.pl był taki zajefajny? Szczerze mówiąc, to niejednokrotnie moje artykuły o F1 były większej klasy niż artykuły z f1.onet.pl Na dodatek Onet.pl zabija człowieka ogromem reklam. Jest ich na stronie kilkanaście. U mnie max 3. Pomimo tego reklama AdTaily kosztująca 4zł/1000 wyświetleń na Kubicomanii nie znajduje nabywców.

    I tu pojawia się pytanie. A właściwie, to PYTANIE: "Czy mam drogo?". By odpowiedzieć na tak skomplikowane, a zarazem proste w formie pytanie trzeba było poguglać ile kosztuje reklama w TV, radio czy prasie? Czy będzie kosztowała tyle, co na Onecie, czy tyle co na Kubicomania.net?

    TV w godzinach około 20.00, gdy leci Taniec z gwiazdami, czy inne badziewie notuje publiczność oglądalność około 2-3 milionów. Udało mi się dotrzeć do cennika reklamy podczas takiego show. Reklama, która trwa tylko 30 sekund kosztuje około 70 tys. zł! Dużo? Nie. Tak się tylko wydaje. Gdy podzielimy ten koszt przez 3 miliony widzów przed Telewizorami, to wychodzi nam, że reklama kosztuje około 0.03zł / użytkownika, czyli 3 grosze.

    Radio RMF FM podaje cennik swoich reklam oraz dzienny zasięg i średni czas odsłuchu. Reklama trwająca 30 sekund kosztuje 7 tys. zł. Dziennie RMF słucha 8 milionów ludzi, przy czym średni czas słuchania wyniósł 3 godziny. Wobec doby trwającej 24 godziny daje to szansę, że każdą godzinę RMF gromadzi przed odbiornikami 1 milion słuchaczy. Dużo. Gdzieś się rąbłem, ale nie dlatego, że to dużo słuchaczy, lecz dlatego, że cena za jednego słuchacza wyniosłaby 0.0007zł! To jest nierealne i wyjdzie to w dalszej części. Oczywiście rozumiem w pewnym stopniu, że reklama w radio jest tańsza, bowiem nie ma wizji, lecz jedynie jest fonia.

    Dziennik Zachodni też podaje swój cennik. Boks wielkości 1/36 strony przyjmuję za rozmiar reklamy AdTaily. Boks taki kosztuje 176 zł. Dziennik Zachodni ma nakład dzienny w wysokości 330tys. egzemplarzy. Niestety nie wiem, jaką ilość stron ma ta gazeta. Gdyby ktoś wiedział, to proszę o kontakt. Mieszkam na wsi i mam daleko do sklepu ;) Założyłem, że jest to 100 stron. Reklama na każdej stronie Dziennika Zachodniego kosztowałaby więc 17600zł. Piszę o tym dlatego, że na stronach WWW reklama zazwyczaj jest na każdej podstronie, a nie na jednej czy dwóch. Zakładając, że jedna gazeta to jeden użytkownik wynik wcale nie zaskakuje: 5gr / użytkownika! Reasumując reklama w TV kosztuje 3gr/użytkownika, reklama w radio niecały grosz, reklama w gazecie 5 groszy.

    Internet jest medium zbliżonym najbardziej do gazety, dlatego cena reklamy powinna być podobna.

    Jeśli wziąłbym cenę z Onetu i sprzedawałbym reklamę za 50 zł,  to zarobiłbym i tak 2x tyle, co sprzedając reklamę po cenie gazetowej. Wobec tego reklamy na Onet.pl są naprawdę drogie. Z drugiej strony okazało się, że moja cena za reklamę z widżeta AdTaily (~4zł/1000wyświetleń) to sprzedawanie się za darmo i zamierzam to wkrótce zmienić.

    środa, 21 października 2009 3 komentarze

    W poniższym poście porównuję ceny reklam na różnych portalach począwszy od Onetu i WP poprzez mniej znane, aż do całkiem niszowych. Omawiam także sposoby, w jakie można się zareklamować i udzielam kilku wskazówek od profesjonalistów : "Jak zrobić znakomitą reklamę".

    Mainstreamowe portale. 

    Wirtualna Polska, Onet, Interia - to są wszystko portale, gdzie ilość reklam jest wręcz oszałamiająca, a pomimo tego ich cena jest zawrotna!


    Onet.pl

    Onet to najstarszy z obecnie znanych portali. Nic dziwnego, że jego ceny są bardzo wysokie. Przyjęło się, że koszt 10 zł / 1000 wyświetleń jest nierealnie drogi. Na Onecie bywa on 15x wyższy! Pomimo to portal nieraz przepełniony jest reklamami. Prawdopodobnie CTC będzie więc raczej śrenie.

    Cena: 15-150 zł / 1000 wyświetleń
    Format: Kilkadziesiąt rodzajów.
    Cennik: http://reklama.onet.pl/cennik.html

    Plusy:
    - reklama o ogromnym zasięgu
    Minusy:
    - cena

    Wp.pl (Wirtualna Polska)

    WP to drugi portal. Dla porównania ceny są o połowę niższe, lecz wciąż ceny są zbyt wysokie.

    Cena: 15 - 75 zł (netto) / 1000 wyświetleń
    Format: Kilkanaście rodzajów.


    Cennik: http://reklama.wp.pl/oferta_cennik.html


    Plusy:
    - reklama o ogromnym zasięgu
    Minusy:
    - cena

    Serwisy Partnerskie

    AdTaily

    AdTaily to serwis stworzony z myślą o ekspresowym i automatycznym dodawaniu reklam. Jest to nowość na polskim rynku. Liczba reklamodawców w AdTaily rośnie lawinowo. Skuteczność tej reklamy polega przede wszystkim na możliwości jej dopasowania do każdej strony z osobna. Warto też wybrać zaufanych reklamodawców, to znaczy takich, którzy nie ściągną widżetu po zapłaceniu za kampanię (płaci się z góry).


    Cena: od kilku gorszy to kiludziesięciu złotych / 1000 wyświetleń
    Format: 125x125 px
    Cennik: http://aka.kosciak.net
    Poradnik: http://www.adtaily.com/blog/tworzenie-efektywnej-kreacji-reklamowej/

    Plusy:
    - możliwość dopasowania reklamy do każdej strony indywidualnie
    - dodanie reklamy trwa 5 minut
    Minusy:
    - płatność z góry




    Co wybrać?

    To zależy od nas, a przede wszystkim od naszego budżetu. Największych reklamodawców będą z pewnością interesowały reklamy wyłącznie na największych zasięgowo stronach typu Nasza-Klasa, Onet, Wirtualna Polska. Ci średni mogą udać się do pośrednika. Najmniejsi mogą skorzystać z usług firm zajmujących się reklamą (marketingiem, SEO) lub poszukać czegoś w katalogu AdTaily.

    Jakiś czas temu zarejestrowałem się w systemie SWL LinkeMe i dodałem do niego swoją stronę. Uzyskałem za nią 138 punktów. Przydzieliłem linki i zapomniałem o systemie.

    Dziś postanowiłem gdzieś dodać moje strony. Jako, że ze względu na site (5-8) w StatLink ich nie przyjęli, to musiałem iść z nimi gdzie indziej. Naturalnie wybrałem LinkMe Elite jako system ogólnie uważany za nr 2 wśród systemów stałych.  Sprawdziłem stan konta w systemie i tutaj niespodzianka. Strona generuje punkty, ale linków nie wyświetla. Jakby tego było nie dość, to jeszcze mam w systemie przydzielonych linków za około 300 punktów! Inaczej mówiąc, stan konta nie zgadza się. To tak jakby otrzmał od użytkowników LinkMe bonus 200%. Dzięki!

    W tym momencie postanowiłem zweryfikować, czy system żyje i przejrzałem linki, które mi przydzielono na innych stronach. To jest akurat dobre, że mogę sobie sam zweryfikować gdzie są one przydzielone. Niestety linki okazały się tragiczne. Na 25 przyznanych linków do użytku pozostawiłbym 7, ale tutaj kolejna niespodzianka. Moja czarna lista jest pełna! No tak, ograniczenie czarnej listy do 15 stron czy tam linków to faktycznie żadna czarna lista. Brakuje mi też znanej z innych systemów (StatLink, LiveLink, SEOMatik) funkcjonalności do sprawdzenia site strony z moim linkiem.

    Na koniec, pomimo tego, iż system Elite deklaruje, że nie przyjmują spamu, to wszelkiego rodzaju wikipedie, agregatory RSS i inne spamy świetnie się trzymają. Nie polecam tego systemu, zdecydowanie go odradzam!

    P.S. EliteLink to bliźniaczy system LinkMe Elite, ale z zasady inny. W praktyce jest taki sam - nie działa, po prostu!

    +

    • podział stron na słabe (Slim) i mocne (Elite)
    • podgląd przydzielonych linków
    • opcja zgłoszenia stron nieregulaminowych do administratora systemu
    -
    • system generuje puste punkty
    • w Elite zdarzają się typowe spamy
    • brak czarnej listy linków / stron
    • brak odnośnika do sprawdzania site strony z naszym linkiem 
    • słaba funkcjonalność 
    Ocena końcowa: 33%
    Zobacz: Recenzja Statlink 

    wtorek, 6 października 2009 0 komentarze

    Ostatnimi czasy coraz więcej mówi się o budowaniu wartościowego zaplecza. Nie, żebym wierzył, iż czasy spamu dobiegły końca. Nie. To pozycjonerzy dorośli.

    Spójrzmy na hipotetyczną sytuację. Masz mega-giga-spamerskie zaplecze. Masz multum punktów w SWL-ach. Pozycjonujesz i nagle BAN! Google wycięło Twoje zaplecze z indeksu, musisz dokupywać punkty i zamiast zysków robisz za friko. To dlatego coraz częściej tworzy się wartościowe zaplecze.

    Druga sprawa, to problem z systemami wymiany linków rotacyjnych. Ich filozofia działania sprawia, że dla Google wyglądają dość podejrzanie. Pojawiają się i znikają itd. Dlatego też coraz częściej tworzy się zaplecze pod statyczny system wymiany linków. Jednym z najlepszych (poleca go nawet Xann) jest StatLink, który nie przyjmuje, katalogów nie mówiąc już o sblogach! Problem polega na tym, że StatLink ocenia strony pod względem ciężkości kodu. Oznacza to przede wszystkim, że  CMS-y typu WordPress, Joomla albo Drupal nie nadają się pod ten system.

    Szukając alternatywy dla dużych CMS-ów na nowo odkryto CMS-y tekstowe, które tworzone są bez udziały bazy danych. Jednym z pierwszych tego typu SEO CMS-ów jest PikoCMS stworzony przez Mendaxa.



    CMS.txt także posiada wszystko, co powinien posiadać tekstowy-SEO-CMS i jest znakomitą alternatywą dla PikoCMS-a. Jego niewątpliwą zaletą w porównaniu do PikoCMS-a jest fakt, iż już na samym początku mamy do wyboru kilka skórek.

    Kolejnym, aczkolwiek tym razem bazo-danowym CMS-em jest TextPattern. Jest to CMS, w którym do formatowania wpisów użyto języka Texile, który jest używany m.in. na Wykop.pl To bardzo fajna alternatywa, gdyż w zasadzie posiada wszystko, czego potrzebuje lekki CMS na zaplecze. TextPattern ma przyjazne URL-e, sitemapę, zarządzanie użytkownikami, kategorie i mnóstwo darmowych skórek oraz ogromną społeczność użytkowników, która go wspiera.... no i co ważne jest spolszczony! To tworzy z niego w zasadzie najlepszą alternatywę dla WordPressa, ale u nas w Pl ciągle mała znaną. 

    poniedziałek, 5 października 2009 0 komentarze

    Ludzie nie lubią ciemnych stron. Według badań prawie połowa użytkowników preferuje strony jasne. Strony ciemne lubi zaś jedynie około 10% ludzi. Pozostała część uważa, iż jest to zależne od samej strony.

    Strony ciemne czyta się gorzej. Moim zdaniem jest to nieprawda. Jako osoba spędzająca dużo czasu w sieci wiem doskonale, że strony jasne są dużo bardziej męczące dla oczu niż strony ciemne. Wyobraź sobie, że kierujesz wzrok w stronę Słońca. Oślepia cię, no nie? A przecież to samo niebio bez Słońca jest ciemne, czarne. Bywa, że są na nim widoczne gwiazdy. Niebo nocą jest jak ciemna strona. Można się w nią wpatrywać godzinami, a nasz wzrok wcale nie ucierpi. W przeciwinieństwie do nieba w dzień, kiedy patrzenie się w niebo może powodować, że przez jakiś czas będziemy oślepieni.

    Mimo wszystko z punktu widzenia projektanta stron należy wziąć pod uwagę, iż przeciętny użytkownik nie spędza w sieci tak długiego czasu. Stąd też tworzenie ciemnych stron jest niewskazana. Po prostu.

    Dlaczego o tym piszę? Ano dlatego, iż jestem projektantem, dlatego, że jestem zainteresowany tworzeniem ciemnych strona oraz dlatego, że ciemne strony są prawdziwym wyzwaniem. W wyzwaniu tym pomocny okazał się być post napisany na stronie http://www.webdesignerdepot.com/2009/08/the-dos-and-donts-of-dark-web-design/ Okazuje się, że tworzenie ciemnych stron jest w gruncie rzeczy prostsze niż stron jasnych. Co mi się podoba przy tworzeniu ciemnych stron to także konieczność trzymania się określonych reguł, za którymi i tak od jakiegoś czasu podążam.

    piątek, 25 września 2009 1 komentarze

    Przymierzam się do masowego katalogowania paru moich stronek. Wczoraj zrobiłem sobie rozpiskę zapleczy, zrobiłem schematy linkowania i jednego tylko nie wiem. Czy opłaca się dodawać do katalogów moderowanych?

    Często jest tak, że te moderowane mają faktycznie wysoką jakość wpisów, ale poza tym właściwie nie ma niczego, w czym byłyby lepsze. Fakt: są zadbane. Czy to gwarantuje, że wpis zostanie zaindeksowany?

    Pytam, bo w moim schemacie linkowania jest fragment o linkowaniu wpisów w katalogach, ale skąd ja mam wiedzieć, czy wpis został przyjęty czy odrzucony? Co najmniej połowa katalogów nie przysyła żadnego info, więc co mi pozostaje? Chyba metoda testowania każdego katalogu z osobna?

    Czarę goryczy przelał dzisiejszy post na PiO, w którym ktoś zapytał, czy da się automatycznie dopuścić 700 wpisów do katalogu, bo nie chce mu się/nie ma czasu moderować.


    Czy opłaca się dodawać do moderowanych katalogów?

    czwartek, 24 września 2009 1 komentarze



    Dobór słów kluczowych to dziś trudna sztuka. Nie wszystko jest powiedziane wprost. Pozycjonerzy ukrywają swoje metody. Na szczęście ja nie jestem pozycjonerem, więc mogę je ujwanić. Oto topowe metody nowego pozycjonowania.

    80 ze 100.



    Cezary Lech - II OKEBI
     
    Propozycja, która tu pada do badanie słów kluczowych na podstawie pozycji frazy w wynikach wyszukiwania oraz liczby wejść. Cezary Lech zauważa frazę, która jest na dalekiej pozycji w SERPach, a mimo to jego blog notuje duże wejść z niej. Oznacza to, że użytkownicy nie znalezli na poprzednich stronach odpowiedzi i szukają dalej i wchodzą na jego blog. On, jak każdy bloger chce mieć jak najwięcej wejść. Dochodzi do wniosku, że warto by było podnieść swoją pozycję na tę frazę po prostu ją pozycjonując. Okazuje się bowiem, że fraza ta nie była pozycjonowana, więc zabieg powinien być prosty.

    Niektórzy zauważyli już jakiś czas temu, że nie opłaca się pozycjonować topowych fraz, bo i tak 80% ruchu z wyszukiwarki pochodzi z tzw. długiego ogona. U Cezarego Lecha, który jest autorem poniższego screencast ruch ten pochodzi z 10 tysięcy słów kluczowych! 

    W poszukiwaniu Długiego Ogona. 
    10 tysięcy słów kluczowych to o dużo za dużo, by znaleźć je ręcznie. Z taką liczbą poradzi sobie tylko skrypt. Wie o tym Cezary Lech, ale potraktował temat dość powierzchownie. Chyba nie chciał zdradzić sposobu jego działania. Na szczęście, ja wiem jak to działa.

    Wystarczy spojrzeć na stronę http://meblebukowe.pl. W stopce widać "Najcześciej wyszukiwane". Po kliknięciu skrypt przenosi nas na osobną stronę, na której są same linki! Błąd? Niekoniecznie. Zwróć uwagę na stopkę: XannDesign. Mówi ci to coś? Bo mi wiele. W prace nad tą stroną był zaangażowany właściciel najbardziej rozpoznawalnego systemu wymiany linków w Polsce, czyli E-Weblink. Xann to marka, w skład której wchodzą EWeblink, XannDesign i XannStats. Jeden rzut okiem w źródło strony i widać kod statystyk XannStats. Bingo!

    Teraz rozwiązanie łamigłówki. Linki w stopce to owy enigmatyczny system linków w stopce, o którym wspomina Cezary Lech. Jest to skrypt, który łączy się z bazą statystyk i wyciąga frazy, na które strona zanotowała wejścia. Być może działa to inaczej, i jest to jakiś system, który wygenerował te frazy na podstawie już wcześniej podanych fraz? Sęk w tym, że to działa i zwiększa ruch z Długiego Ogona.

    Portal Widmo.
    Lexy proponuje, aby zacząć pozycjonowanie przed startem strony. Mądre, bo proces "produkcji" strony trwa. Zakładamy więc portal, tworzymy zaplecze, linkujemy stronę docelową tak, aby zyskiwała ona poklask u Pana Google. Jedno pytanie mam, na jakie frazy będzie pozycjonować Lexy? Ano, zdaje się, że na te, które wybierze poprzez odpowiedni dobór słów kluczowych. Niestety, metoda ta jest czasochłonna i nie gwarantuje 10 tysięcy słów kluczowych. Podejrzewam, że na 100 by się skończyło.

    System, który zastosował Xann wydaje się być fajny. Można wybrać trochę słów kluczowych i na ich podstawie, skryptowo tworzyć podstrony takie jak na meblebukowe.pl. Na stronie jest około 200-250 słów kluczowych. Wprawdzie jest trochę więcej niż u Lexy, ale do 10 tys. nadal sporo brakuje.




    Ciąg dalszy nastąpi...

    niedziela, 20 września 2009 0 komentarze

    Kiedyś postanowiłem postawić sobie klon Digg.com (Drigg) na subdomenie w Drupalu. Zrobiłem to i nasunęło się pytanie, co z tym fantem zrobić? Zapytałem więc na PiO co sądzą o takim zapleczu. Głosy były różne, ale raczej neutralne. Lepszego pomysłu nie miałem, więc udostępniłem ten klon Digg.com SEOwcom. Dodałem do kilku katalogów i precli, podłączyłem 1k Gotlinka i zareklamowałem na forach. Jakież było moje zdziwienie, gdy po trzech miesiącach strona tak słabo podlinkowana otrzymała PR2! Tego nie spodziewałem się... Strona w indeks wchodziła jak w masło i praktycznie indeksowało każdą podstronę. Bardzo szybko z kilkunastu wpisów zrobił się portal mający site około 350.

    No i to mnie skusiło, by podpiąć GotLinka. Nie minęły dwa tygodnie, a PR został wyzerowany i ludzie stracili zainteresowanie. Szkoda, bo dziś mógłby to być bardzo mocny pressell. Mimo to, nadal indeksuje się świetnie, ale linki nie mają już tej mocy.

    Wiedziałem, że klon Drigg daje radę jako zaplecze i kiedyś trafiłem na świetny wpis, co można z Drupala zrobić. Można wszystko, ale czy np. ktoś zastanawiał się, aby połączyć to wszystko w jedną całość i stworzyć z tego zaplecze? Wykorzystując Wildcard mógłbym stworzyć platformę SEO z newsami, recenzjami, artykułami (preclami), systemem blogów, forum, chatem (klon Twitter), katalogiem i sklepem (sic!). Oczywiście wszystko dla SEOwców. Podlinkowałbym to dzieło delikatnie i wrzucił LinkMe Elite albo Gotlinka. Tym razem jednak podpiąłbym linki tylko pod strony główne.

    Problemem jest to, że taki SEOPortal musi jakoś na siebie zarobić. Podpięcie punktów już raz źle się skończyło. Zarobki z AdSense czy z AdTaily są śmiechu warte w moim przypadku. Programy Partnerskie nie zwracają się. Jednym słowem, kicha!

    Platformy SEO nie będzie.

    1. BarackSlideshow - skrypt, który po raz pierwszy mi uświadomił przewagę MooTools nad jQuery. Nazwa skryptu pochodzi od imienia obecnego prezydenta Stanów Zjednoczonych Baracka Obamy. Zbieżność to nieprzypadkowa, bowiem został on zainspirowany przez oficjalną stronę prezydenta barackobama.com DEMO
    2. Fancy Menu - widziałem już to menu wykonane w jQuery, ale nie pamiętam już jego nazwy. To wykonane jest w MooTools, bardziej zaawansowanym frameworku javascript. Brak Dema.
    3. Fancy Upload - GUI do uploadowania plików wyposażone w pasek postępu DEMO
    4. Form HighLight - formularz kontaktowy z podświetlaniem ramek DEMO
    5. MOOdalBox - Ten skrypt to HTML-lightbox. Jak sama nazwa wskazuje jest to lightbox, ale nie ogranicza się tylko do wyświetlania obrazków. Przeciwnie, stworzony został po to, by umieszczać w nim pliki HTML. Z powodzeniem można go wykorzystać do stworzenia wyskakujących banerków, formularzy kontaktowych czy też rejestracyjnych. Doskonała alternatywa dla wyskakujących okien (popup windows), gdyż nie jest blokowany przez oprogramowanie do zwalczania tego typu programów. Naturalnie DEMO znajduje się na stronie MOOdalBox, a nie na oddzielnej. :)
    6. MooHover - ciekawy efekt po najechaniu na pojemnik, warto się zapoznać. Prosty, lekki i ładny skrypt. Zastąpił u mnie technikę budowania menu w oparciu o Sprite CSS-y. Łatwy we wdrożeniu. 
    7. NoobSlide - MooToolsowy slideshow, czyli oszczędzający-miejsce skrypt do wstawienia na stronę główną portalu / bloga.  Ma wbudowanych aż osiem konfiguracji! Najlepiej sprawdzić samemu.
    8. Shoutbox - czyli prosty chat zbudowany z wykorzystaniem zaawansowanego frameworka MooTools.
    9. SlideItMoo - wyróżniony na najbardziej trendowych serwisach designerskich skrypt to nowa jakość w swojej klasie. Jest to nieskończony slideshow obrazków w aż 3 konfiguracjach! 
    10. Slimbox - to MooToolsowy lekki lightbox. Lepszy od tego w jQuery, bo ważący zaledwie 4kb!
    Właśnie za te skrypty kocham MooTools.

    Jeśli ktoś ma ochotę, informacje dotyczące podobnych skryptów w jQuery to proszę o maila (kontakt zabezpieczony przed email-harvesterami w sidebarze).  Chętnie zrobię porównanie :)

    poniedziałek, 14 września 2009 0 komentarze

    Przez Wykop.pl codziennie przewija się kilka tysięcy użytkowników a moderacja w nim teoretycznie nieistnieje. Praktycznie jednak, rolę moderatorów pełnią sami użytkownicy, którzy mogą oceniać Znaleziska pozytywnie (wykopać) lub negatywnie (zakopać).

    Kto chce trafić na Główną i dlaczego to takie trudne





    Spamerzy chcą tam dodawać na Wykop reklamy swoich produktów, swojego bloga, swojej strony. Liczą przede wszystkim na zwiększenie ruchu, rozpoznawalności oraz przypływów z reklam. Tymczasem Wykopu dzielnie bronią jego użytkownicy, którzy bezbłędnie rozpoznają wszelkie próby spamu, mają zainstalowanego AdBlocka i potrafią korzystać z opcji Zakop. W tej atmosferze ciągłej walki ciężko jest, by dodawana informacja nie została zakopana, a jeszcze ciężej jest posłać ją na stronę główną. Mnie się udało, dwa razy! W tym poście dzielę się moimi doświadczeniami...

    Jak trafić na Główną


    Jeśli chcesz trafić na główną, to musisz mieć ciekawy content. Najlepsze są materiały... uwaga, tu zaskoczenie - ciekawe! Taki był mój pierwszy Wykop: http://www.wykop.pl/link/132342/najbardziej-kosmiczne-miejsce-na-ziemi Tak naprawdę informację tę znalazłem na pierwszej stronie Digg.com i wrzuciłem na Wykop.pl Trochę mnie zjechali za słaby opis, ale w chwili ekstazy nie udało mnie się wymyślić nic lepszego. Reasumując, najprostszym sposobem znalezenie się na Głównej Wykop.pl jest zajumanie pierwszej strony Digg.com

    Drugi Wykop to był Wykop o życiu. Prosta sytuacja pokazująca absurd w naszym kraju. Rzecz miała związek z dużymi pieniędzmi, a Znalezisko zostało tak napisane, by - zrobić z siebie ofiarę. Dodatkowo, rzecz ta dotyczy milionów Polaków, a dokładnie - każdego obywatela. Ponieważ nie posiadam tematycznej strony, na której pisałbym o takich sprawach postanowiłem założyć bloga w najszybszym serwisie blogowym, czyli na Blogspot.com. Na nim dokładnie opisałem swoje doświadczenie. Starałem się przy tym pisać dowcipnie, a na końcu absurdu zamieściłem absurdalną puentę. Dodałem też kilka powiązanych linków i zamieściłem tematyczny obrazek. Wcześniej postarałem się o odpowiedni dobór skórki, która dobrze wyglądałaby w każdej rozdzielczości. Wykopowicze mają wbudowane w mózg systemy do wykrywania reklam. Normalnie z 1000uu otrzymuje się ~1% kliknięc. Od Wykopowiczy otrzymacie 0%. Dodatkowo istnieje szansa, że Wasz blog zostanie uznany za spam i zakończy karierę przedwcześnie. :>

    I tak oto powstało Znalezisko, które trafiło na Główną zdobywając 340 głosów.

    Oto ono: blog http://idiocirp.blogspot.com/

    Podsumowanie



    Jeśli chcesz trafić na Stronę Główną Wykop.pl, to:
    - wykorzystaj informację, która już gdzieś odniosła sukces
    - pisz o czymś absurdalnym i niecodziennym;
    - pisz o pieniądzach, o dużych pieniądzach
    - zrób z siebie ofiarę, niech inni poczują się mentorami
    - pisz o czymś co dotyczy dużej ilości osób
    - pisz z humorem
    - opublikuj to na specjalnie spreparowanej stronie

    Na Koniec


    Na Główną próbowali trafić Krzysztof Lis oraz kolega z SEOblogowanie.pl Kolegom proponuję spróbować ponownie :)

    wtorek, 8 września 2009 0 komentarze

    To dość proste.

    Powinieneś zacząć od optymalizacji wewnętrzenej strony. Dobrym przykładem jest serwis http://kubicomania.net Nie mam tu na myśli optymalizacji Title, Meta tagów czy też nagłówków oraz wytłuszczania tekstów! Mam na myśli logiczne rozmieszczenie elementów oraz zadbanie o ich hierarchię. Na Kubicomanii centralne miejsce zajmuje zajawska promowanej wiadomośi. Dalej są zajawki innych aktualności o F1, miniaturki filmów, oraz lista ostatnich filmów, wiadomości i ankieta. Brakuje chyba tylko skrótu z ostatnich wiadomości na forum. To do czego zmierzam, to by ze strony głównej zrobić zajawkę, podgląd, przegląd całęgo portalu. Zwał jak zwał. +

    Najważniejszą zasadą SEO jest:

    Content is King
    . Jeśli nie masz ciekawej zawartości to nawet najlepiej wypozycjonowana strona z najładniejszą grafiką nie przyniesie dużych zysków. Istnieje wiele informacji, których nie mogą znaleźć internauci na innych portalach. Warto więc przeglądać fora konkurencji i sprawdzać, czego ludzie szukają. W ten sposób mamy unikalną zawartość dla wyszukiwarki i interesującą dla internauty. ++

    Niech Twoja strona posiada system tagów, czyli po polsku słów kluczowych. To doskonała metoda na pozyconowanie długiego ogona (z którego pochodzi ponad 80% wejść na strony). Staraj się, aby tagi miały jakiś sens. Przykładowo, jak pisałem o powrocie Michaela Schuachera do F1 wyszło z tego kilka postów opatrzonych tagiem powrót Schumachera. Inne opcje: powrót Michaela do F1, powrót mistrza do F1 itd. Jeden post, a kilka podstron. Nie martw się o Duplicate Content. Google zrozumie, że jest to jeden i ten sam news. Nie da ci ani filtra, ani bana. Po prostu rozłoży zawartość (wartość) na kilka postów.

    Katalogowanie to jedna z podstaw pozycjonowania. Ja to nazywam przedpozycjonowaniem. Jeśli katalogujesz, to pamiętaj, że robisz to dla wzmocnienia TrustRank domeny.

    Preclowanie służy do pozycjonowanie długiego ogona. Jest banalnie proste. Wystarczy zrobić kilka artykułów i przerobić je na pod mieszarkę. Dalej już nie muszę tłumaczyć? Oczywiście jeśli ktoś ma czas i pieniądze, to warto się dodać do wartościowych precli przyjmujących wyłącznie unikalną zawartość albo wykupić artykuły na takich preclach u firm SEO.

    W dzisiejszych czasach zarówno katalogi jak i precle wymagają delikatnego podlinkowania, aby się utrzymać. Standardem na to jest 100 punktów GotLinka. Skąd wziąć te punkty?

    Stwórz własne zaplecze tematyczne z RSS-a właśnie pozycjonowanej strony! Zakup sobie domenę i postaw na niej WordPressa. Zainstaluj wtyczkę Global Translator i patrz jak z jednego newsa robi się 41! To się nazywa strona, która sama na siebie pracuje. Nie zapomnij o podłączeniu SWL. :)

    Wykorzystaj media społecznościwe do promocji. Dodawaj newsy na strony z serwisu dodajdo.com, czyli np. na Wykop. Nie przejmuj się wyzwiskami, zakopywaniem. Ludzie tego typu serwisach to zwykłe pasożyty. Nie przesadzaj jednak ze spamem, bo może się to zakończyć banem.

    Stwórz własne media społecznościowe. Na Drupalu szybko postawisz klon Digg, Twittera, system blogowy, katalog stron oraz artykularnie (presell page). Zaproś innych do dodawania info. Rozpromuj serwis poprzez skatalogowanie, preclowanie i ogłoszenia na forach. Tym samym odwdzięczysz się społeczności tworzącej darmowe precle i katalogi. Rób tak, aby to zaplecze wyglądało przyzwoicie.

    Zapłać 200 osobom za dodanie wpisu w ich ulubionym systemie zakładek. Płać za to jak za dodanie do katalogu, czyli 30gr. Dodaj, że chodzi o minimum 30 serwisów. Podaj te serwisy. 10zł to kwota, która ma jakiś sens, a kilkanaście linków ze stron z bardzo wysokim PR umocni domenę. Zlecenia możesz dać na forach lub poprzez system dla freelancerów: zlecenia.przez.net

    Bierz udział w dyskusjach. Stwórz konto na Blipie, Flakerze i pisz ciekawie, aby ludzie dodali cię do obserwowanych.

    Pisz na forach. Staraj się być pomocny i ustaw sobie linki w stopce. Dzięki temu zdobędziesz kolejne linki.

    Zaproponuj wymianę linkami z serwisem o podobnej tematyce. Bardzo prawdopodobne, że jeżeli osoba nie znajdzie na portalu poszukiwanej informacji, sprawdzi polecaną przez Ciebie stronę. Nie przejmuj się, jeśli tamta strona jest słabsza od Twojej. Bardzo możliwe, że dzięki temu użytkownik ppowróci do Ciebie i już zostanie na stałe. :)

    Wykup boksy w AdTaily. Wpierw zrób rozeznanie, gdzie chciałbyś się reklamować.

    Jeśli masz naprawdę dużo funduszy możesz się bawić w system reklam kierowanych Google AdWords.



    dodajdo.com

    środa, 2 września 2009 0 komentarze

    Ostatnio przede mną perspektywa zmiany "na lepsze". Nowo powstająca firma dotąd zajmująca się tworzeniem wszelkiego rodzaju logotypów niekoniecznie na rzecz Internetu postanowiła rozszerzyć działalność i jest zainteresowana zatrudnieniem mnie w charakterze kodera. Jak zdąrzyłem się zorientować, będę ostatnim łańcuchem w procesie tworzenia stron WWW. Nie znaczy to, że nie będę mieć wpływu na proces tworzenia, bo już mi wiadomo, że mogę grafika opieprzyć, jeśli coś zrobi do dupy. Tylko powiedzcie mi, co mam powiedzieć komuś, kto tworzył grafikę wektorową i rzeczywiście nie ma pojęcia w czym rzecz? Zresztą, taki grafik ma też swoje plusy, wkońcu jeśli chodzi o samą grafikę, to posiada duże umiejętności i w dobrych rękach (moich) mógłby się stać zabójczym narzędziem do tworzenia grafiki. Ale ten wpis miał być o czymś innym.

    Zadajcie sobie pytanie, kto tworzy sieć. Odpowiedź jest prosta. Programista, prawda? Tymczasem jak jest w rzeczywistości i jak to widzę dość często, programista bywa bardzo często postawiony właśnie jako ostatni w przebiegu pracy. Dlaczego tak jest? To pominę, bo nie mam zamiaru tutaj tworzyć wywodów na temat piękna, sztuki oraz odpowiadać na banalne pytania, że piękno jest lepsze niż jego brak. Miałem za to zamiar napisać na temat swojej frustracji z tym związanej. Czy to jest w porządku? W końcu sieć bez grafików mogłaby istnieć, ale bez programistów (lub koderów) już nie. Ale powód mojej frustracji jest inny. Będę dostawać prace od grafika, który pojęcia nie ma o SEO, usability i kodowaniu/programowaniu. Szlag mnie trafia jeszcze z jednego, cholernego powodu. Dlaczego od kodera wymaga się obsługi programów graficznych, a od grafika nie wymaga się obsługi edytora tekstu? Koder nie powinien nawet dotykać Photoshopa albo GIMP-a. Tymczasem w Polsce rzeczywistość jest inna. Mam nadzieję, że ten post będzie dla niektórych powodem do przemyślenia przebiegu pracy.

    Powodem wpisu jest moja frustracja w związku z degradacją, jaką mogę doświadczyć. Tworzyłem strony WWW od podstaw i to było dobre. Dobra strona z kilkoma podstronami powstawała u mnie 3-4 godziny. Tymczasem przekodowanie "prostego" szablonu dostarczonego przez początkującego grafika zajęło mi również cztery godziny. Czas ten sam, a różnicę w efekcie widać. Na dodatek mam pewność, że moja strona wyświetli się we wszystkich przeglądarkach poprawnie, bo nie użyłem na niej żadnego hacku. Druga strona tymczasem ma sporo dość różnie obsługiwanych przez przeglądarki rozwiązań i pomimo sprawdzenie jej w wielu przeglądarkach nadal nie mam pewności, czy wszystko będzie działać prawidłowo.

    Jak jest według Was? Koder powinien dostawać szablon do zakodowania, czy grafik powinien otrzymywać instrukcje co do potrzebncyh elementów?



    dodajdo.com

    wtorek, 18 sierpnia 2009 2 komentarze


    ColorSuckr to narzędzie to  tworzenia palet kolorów z obrazków. Schemat działania jest bardzo prosty. Wpisujesz ścieżkę do obrazka, a narzędzie potrafi wyciągnąć jego kolory. Dodatkowo ColorSucker poleca  palety kolorów z serwsiu ColourLovers.com

    Przykład.

    Rezultat pracy programu jest podawany w formacie:

    Obrazek koloru, np.                         

    Hex, np. #A668C6

    Websafe (hex), np. ##9966cc

    RGB, np. R:166 G:104 B:198

    Dodatkowo, aby wyświetlić palety kolorów, klikamy Show i widzimy coś takiego:

    Każda paleta jest również klikalna i jej kliknięcie przenosi nas na stronę serwisu ColourLovers.

    Nie wiem, jak Wam, ale mnie takiego narzędzia od dawna brakowało. Dodatkowo, zawsze możecie sobie zapisać taką paletę kolorów jako zakładkę w przeglądarce lub w delicjach. Istnieje ponadto Addon do Firefoxa, który można pobrać stąd.

    Na sam koniec, wg mnie najciekawsza funkcja. Rezultaty można sobie pobrać w formatach .ACO (Adobe), XML, JSON i RSS. DLa mnie, jako, że noszę się z zamiarem utworzenia generatora stron WWW najciekawszym rozwiązaniem wydaje się być parsowalny format XML.


    dodajdo.com

    poniedziałek, 10 sierpnia 2009 2 komentarze

    W globalnej sieci jest dostępnych całe mnóstwo ciekawych i darmowych czcionek. Dzięki regule @font-face, która jest obecnie standardem W3C możesz załączyć każdą czcionkę w formacie .ttf oraz .otf do swojej strony WWW. Niestety bólem w tym wszystkim jest fakt, że znakomita większość zagranicznych projektantów podarowała sobie stworzenie polskich znaków diaktrycznych, a co za tym idzie, większość lansowanych za granicą czcionek jest nieprzydatna. Dlatego też postanowiłem napisać tego posta, aby może z jednej strony zachęcić do tworzenia polskich czcionek, a z drugiej strony pokazać, że Polacy nie gęsi i swoje czcionki mają.

    Niestety, ale administratorom pewnego portalu, z którego podlinkowałem obrazki czcionek nie spodobał się fakt, że linkuje do ich serwisu i podmienili je na takie zawierające treści wobec mnie oszczercze. Szkoda, bo na wyselekcjonowanie obrazków poświęciłem trochę czasu, ale kilka kB transferu dla mojego serwisu okazało się zbyt dużą ceną za darmową reklamę. Pech. 

    dodajdo.com

    piątek, 7 sierpnia 2009 0 komentarze

    Title - najważniejszy znacznik pod kontem optymizacji. Zostało dowiedzione, że jego wpływ na pozycję strony w wynikach wyszukiwania jest relatywnie wysoki. Title należy wstawić w sekcji nagłówka Head strony. Title jest wyświetalny na górnym pasku przeglądarki oraz na zakładkach w przeglądarce. Jego odpowiednie dobranie podnosi nie tylko pozycję, ale wpływa na liczbę wejść z wyszukiwarki a także usability. Maksymalnie w znaczniku title można zmieścić 70 znaków.

    Meta Description to jedyny ze znaczników, który posiada jakiekolwiek znaczenie w wynikach wyszukiwania Google. Wiele wyszukiwarek, w tym Google używa tego tekstu jako opisu strony w wynikach wyszukiwania. Nie znaczenia pod kontem pozycjonowania, może mieć za to wpływ na wejścia z wyszukiwarki. Wyszukiwarka zaindelsuje tylko 155 znaków.

    Meta Keywords - Znacznik, którego wpływ na pozycję w wynikach wyszukiwania był niegdyś bardzo wysoki. Wykorzystywali to ówcześni pozycjonerzy, którzy spamując Meta Keywords frazami typu sex, viagra, itp. wypływali na wysokie pozycje pod te frazy, mimo, iż content strony często był zupełnie inny. Obecnie jego wartość jest znikoma. Używa go tylko jedna znacząca wyszukiwarka. Mimo wszystko nadal warto go stosować, gdyż wśród katalogów rozpowszechnione jest pobieranie słów kluczowych z tego znacznika, co z kolei przyśpiesza indeksację wpisów.

    Nagłówki - Bardzo ważna część optimizacji. Nagłówki podzielone są według istotności. Warto tak zbudować stronę, by występowały na niej trzy najmocniejsze nagłówki: h1, h2 i h3. Pozostałem trzy nagłówki, czyli h4, h5, h6 mają już znacznie mniejsze znaczenie i ich moc porównuje się do mocy pogrubionego tekstu.

    Pogrubiony tekst oznacza, iż coś jest dla nas wyjątkowo ważne. Skoro tak, Google daje za to bardzo niewielką premię. Nie warto jednak pisać całego tekstu pogrubionego. Google nie jest tak głupie, nie da się na to nabrać. Do pogrubienia tekstu używa się znaczników B oraz STRONG (oba mają identyczną moc).

    Domena oraz struktura URL mają bardzo duży wpływ na pozycję strony w wynikach wyszukiwania. Moc słowa kluczowego w domenie porównuje się z mocą Title oraz H1, czyli jest bardzo duża. W adresie strony należy unikać dziwnych znaków, takich jak #$&? itd. Mogę one wpłynąć na szybkość indeksacji strony lub nawet ją uniemożliwić.

    Właściwość alt obrazka to jeden z mniej docenianych obecnie znaczników SEO. Tymczasem ma on duże znaczenie pod kontem optymizacji. Przypuszcza się, iż to właśnie na podstawie popwiązania pomiędzy img alt i samą stroną Google ustawia pozycję w wynikach wyszukiwania obrazków. Poza tym znacznik ten jest standardem W3C a jego pominięcia oznacza błąd walidacji!

    rel="nofollow" - znacznik, który jeszcze do niedawna dawał webmasterom ogromną moc w kierowaniu przepływem strumienia PageRank. Link opatrzony tym znacznikiem oznaczał, iż Google ma go nie brać pod uwagę przy ustalaniu wartości PR. Obecnie algorytm ten uległ zmianie i jego stosowanie przynosi znacznie mniejszą korzyść. Jeśli nie chcemy komuś przekazywać mocy to po prostu nie linkujmy do niego. Jeśli już musimy, to decyzja czy wstawić nofollow powinna być przemyślana. Jeśli link dotyczy strony niekonkurencyjnej to znacznik nofollow można sobie darować.

    O czym jeszcze należy pamiętać podczas optymizacji strony?

    Kiedyś strony www.przyklad.pl i przyklad.pl były dwiema różnymi stronami. Obecnie tak nie jest, ale pewne wskazówki świadczą o tym, że Google nadal nie potrafi zliczać tych stron jako jednej strony i zamiast tego traktuje je jako dwie oddzielne. Lekarstwem na tę paranoję jest przekierowanie 301 np. z adresu bez www na adres z www. To, który jest lepszy jest przedmiotem dyskusyjnym i ciężko jest wydać jednoznaczny osąd.

    Sitemap.xml to mapa strony dostarczona w języku semantycznym, który jest preferowanym przez wyszukiwarki. Warto się zapoznać i zaprzyjaźnić z sitemapą. Wyszukiwarki posiadają specjalne strony, w których możemy zgłosić sitemapę, która ułatwi robotom przeszukanie witryny, a co za tym idzie przyspieszy indeksowanie. Ponadto o każdej zmianie możemy powiadomić wyszukiwarkę pingując do jej odpowiedniej strony.

    Dobranie odpowiedniego anchor tekstu do wewnętrznych linków również może być przydatne. Przykładowo, jeśli mamy dobrze wypozycjonowaną stronę główną, to PR z niej możemy odpowiednio redystrybuować na inne strony poprzez wstawienie odpowiednich anchor tekstów. To z kolei prowadzi do wzmocnienia tej podstrony.

    rel="canonical" jest znacznkiem używanym w przypadku, gdy mamy dwie takie same strony, co jest dość często sytuacją w sklepach internetowych, oraz innych miejscach, gdzie używamy otagowania. rel="canonical" wskazuje na oryginalną stronę, dzięki czemu nie popadamy w Duplicate Content.

    Ostatnią ważną rzeczą jest nie poprzestawanie na nauce i zdobywanie nowej wiedzy. Próżność ludzka jest ogromna niczym kosmos. Nawet jeśli ktoś wie coś ciekawego, to dla głupiej sławy podzieli się tym z całym światem za darmo...

    Jeśli chcesz poczytać więcej na ten temat to zapraszam na stronę: http://www.seoconsultants.com. Możesz też od razu przejść do http://www.seoconsultants.com/html4/elements/ ,która jest znakomitym źródłem informacji na temat semantyczności, HTML i SEO. Warto też będzie zapoznać się ze wskazówkami dotyczącymi jakości stron od samego konsorcjum W3C.


    dodajdo.com

    piątek, 31 lipca 2009 3 komentarze

    Niniejszy temat porusza zastosowanie czcionek na stronach WWW. Uwzględniam w nim wsparcie przez systemy operacyjne, przeglądarki oraz omawiam ich zastosowanie.

    Ogólnie czcionki dzielą się na dwa typu: szeryfowe i bezszeryfowe. Dodatkowo możemy wyróżnić czcionki monospace oraz cursive. Czcionki szeryfowe posiadają tzw. ogonki, podczas, gdy w czcionkach bezszeryfowych brak ogonków. Nie, nie chodzi o polskie znaki. Chodzi o... W zasadzie opisuje się to w ten sposób: W dawnych czasach ludzie pisali różnymi farbkami i używali do tego pędzla, patyczka, itp. Farba ma tę właściwość, że się ciągnie, więc jak pisali i odrywali pędzelek bądź patyczek od płótna, ściany czy kamienia, to tworzył się ogonek - bo farba się ciągła. Tak wygląda historia kroju czcionki szeryfowej. Jest ona uznawana za łatwiejszą do czytania na papierze, ale w przypadku komputera jest odwrotnie i wynikia to z ograniczonej ilości pikseli na punkt. Dlatego też na komputerze czcionki szeryfowej używa się tylko dla nagłówków i ewentualnie dla wyróżnienia czegoś. Dla reszty stosuje się czcionki bezszeryfowe lub monospace. Czcionki monospace posiadają duże spacje pomiędzy literkami i właściwie nie wiem po co.

    Jak już wspomniałem na stronie WWW należy stosować głównie krój bezszeryfowy. Jednakże z tym wiąże się jeszcze jeden problem. Chodzi o wsparcie. Jest wiele systemów operacyjnych (Windows, Mac, OS-y) i każdy z nich posiada swój własny zestaw czcionek. Dodatkowo mamy różne przeglądarki. W efekcie nie wiadomo, czy ktoś, kto ogląda naszą stronę na innym komputerze widzi taką samą stronę. Dlatego powstało zestawienie bezpiecznych czcionek webowych, a ang. zwanych Web Safe Fonts. Najbezpieczniejszymi czcionkami są niestety tylko trzy czcionki: Arial (bezszeryfowa), Georgia (szeryfowa), Verdana (bezszeryfowa) i Courier New (monospace). W zasadzie identycznych czcionek jest więcej, ale różnią się one nazwą, co częściowo je dyskwalifikuje jako bezpieczne. Więcej na ten temat piszą na stronie http://www.ampsoft.net/webdesign-l/WindowsMacFonts.html

    Jeśli jednak jakaś czcionka wyjątkowo się nam spodobała, to dzięki właściwościom HTML-a, w pliku CSS możemy określić priorytety dla czcionek. Przykładowo, jeśli nam się podoba Helvetica, ale w Windowsie nazywa się ona Trebuchet MS, to dzięki odpowiedniemu zapisowi możemy ustawić ten samym wygląd zarówno w Windowsie jak i w Macu.

    I na koniec najlepszy z bajerów. Dzięki metodzie @font-face możemy zaimportować sobie dowolną, wybraną czcionkę. Niestety, ale nie wszystkie przeglądarki wspierają tę funkcję. Obowiązuje więc zasada z poprzedniego aragrafu, czyli tworzymy sobie priorytetowo hierarchię pożądanych czcionek. Jeśli system nie znajdzie pierwszej to poszuka drugiej. I tak dalej. Całkiem dobra lista polskich czcionek do importu znajduje się na stronie http://czcionki.skryptoteka.pl/czcionki,polish,,1.htm Niestety, Internet Explorer po raz kolejny posiada odmienne standardy. Więcej na temat zastosowania bezpiecznych czcionek na stronach WWW znajdziecie na http://en.wikipedia.org/wiki/Web-safe_fonts



    dodajdo.com

    czwartek, 30 lipca 2009 1 komentarze
    Profesjonalny Hosting

    Najnowsze