Profesjonalny Hosting



Google Caffeine to spodziewane w krótkim czasie, wielkie uaktualnienie silnika wyszukiwarki Google porównywalne do uaktualnienia Florida z 2003 roku. Nie wiadomo dokładnie jakie zmiany przyniesie, ale Google jak zwykle wygadało się w kwestii kilku, a niektóre Centra Danych Google już podobno pracują na nowym silniku.

Oto czynniki, które zostaną wprowadzone w Caffeine :
  • szybkość : poprawiona zostanie prędkość indeksowania sieci;
  • świeżość : bonus zostanie przyznany świeżym stroną, z często aktualizowaną zawartością; w ten sposób Google chce usunąć z wyników wyszukiwania strony, które się już zdeaktualizowały; 
  • siła społeczności : Google wprowadziło ostatnio do swoich wyników wyszukiwania wyniki na żywo z Twitter-a; zdaniem specjalistów siła mediów społecznościowych wzrośnie; takie serwisy jak Twitter, FaceBook, StumbleUpon, Delicious, Blogger a być może Nasza-Klasa, Pinger, Wykop - będą przekazywały jeszcze większą moc niż dotychczas; największy plus zanotuje jednak FriendFeed;
  • szybkość ładowania się strony : o tym mówi się już od dawna; strony, które ładują się zbyt wolno powodują odrzucenia, wobec tego nie ma powodu, by trzymać takich na wysokich pozycjach w wynikach wyszukiwania;
Uaktualnienie Google Caffeine przyniesie prawdopodobnie minimalne zmiany w SERP-ach. Być może Google rozprawi się z jakimiś metodadmi spamerskimi, ale wielkich roszad w wynikach wyszukiwania nie będzie. Bardziej spodziewam się ich za kilka lat, gdy Google Chrome OS podbije większą część rynku, a Google będzie miało wystarczająco czasu, by przyglądnąć się wynikom. Moim zdaniem ważne jest jeszcze jedno : wyszukiwarka oddaje decyzje odnośnie pozycji dla samych użytkowników. Dowodzi tego personalizacja wyników wyszukiwania dla niezalogowanych oraz strzałki rodem z Web 2.0 w tychże SERP-ach. Ponadto czytałem, że Bing wraz z Yahoo pójdą dokładnie w przeciwną stronę. Oznajmią, że wyniki wyszukiwania ich wyszukiwarek są jednakowe dla wszystkich i nazwą to innowacją.

Co myślicie o zmianach jakie przyniesie Caffeine? Czy będzie wielkie zamieszanie w SERP-ach czy mało znaczący update? Jakie metody spamowania wyszukiwarki odejdą do lamusa? Swoje myśli pozostawcie w komentarzach.

piątek, 25 grudnia 2009 2 komentarze



Pojawiły się nowe wersje (5.21 i 6.15) Drupal. Przyczyną ich wydania jest odkrycie błędu SA-CORE-2009-009 który umożliwiał atak na witrynę metodą XSS poprzez wstrzyknięcie złośliwego kodu do formularza kontaktowego witryny. Aktualizacja lub wprowadzenie nowego patcha do Drupala silnie zalecane.

W nowych wersjach nie ma żadnych nowych ficzerów. Istotną zmianą jest zmiana w pliku .htaccess Drupal 6.15

Lista poprawionych błędów w Drupal 6.15 : http://drupal.org/project/cvs/3060/?branch=DRUPAL-6
Lista poprawionych błędów w Drupal 5.21 : http://drupal.org/project/cvs/3060/?branch=DRUPAL-5

Przed wgraniem aktualizacji warto stworzyć backup bazy danych oraz plików Drupal.
Najprostszą metodą na backup bazy danych jest użycie modułu Bakup and migrate.
Jak łatwo zrobić backup plików
Więcej instrukcji na temat aktualizacji Drupala

Źródło informacji: http://drupal.org/drupal-6.15

czwartek, 17 grudnia 2009 0 komentarze



Nieprawidłowy kod w przeglądarce Google Chrome 3.0.195.33 pozwala na odkrycie DNS-ów i pozbawienie resztek anonimowości w sieci WWW.
Obecnie na forum Google trwa dyskusja na temat dziury. Głównym podejrzanym jest funkcja DNS pre-fetching.
Wokół tematu już narosło wiele nieporozumień. Jedni twierdzą, że winna jest standardowo włączona funkcja DNS pre-fetching, inni twierdzą, że nawet po jej wyłączeniu problem nie ustaje.
Chromium jest projektem open source, którego autorem jest Google. Google Chrome to przeglądarka oparta na tym projekcie. Potwierdzona właśnie luka w Google Chrome 3.0.195.33 może zatem dotyczyć także przeglądarki Chromium.
Kontrowersyjny w tym przypadku jest fakt, iż Google ma interes w tym, by wiedzieć o nas wszystko. Przeglądarka Chrome codziennie wysyła do Google jakieś zaszyfrowane dane. Te same dane wysyła Chromium. Wobec powyższego nasuwa się stwierdzenie:
It’s not bug, it’s feature.
Dla chcących zachować anonimowość polecam instalację obdartego ze szpiegującego kodu Iron-a.

wtorek, 15 grudnia 2009 0 komentarze


Chyba tylko WordPress przwyższa Drupala liczbą modułów. Mimo to poszedłem nieco pod prąd i na swojego CMS-a wybrałem Drupala. Stało się to głównie ze względu na bardziej techniczną otoczkę (w przeciwieństwie do bardzo medialnej w przypadku WordPressa).

Ponieważ tych modułów jest tyle, że nie sposób je wszystkie spamiętać, to cały czas gubię nazwę któregoś z modułów i muszę po raz kolejny szukać. Dlatego powstał ten wpis. Nie jest to spis najlepszych modułów do Drupala, więc jeśli tego szukałeś, to się zawiedziesz. Mogę jedynie polecić stronę Drupal.org na której moduły posortowane są według ilości stron, jaka z nich korzysta. Są też inne kryteria, kategorie - na pewno znajdziesz coś dla siebie.
  1. GTranslate - potrafi przetłumaczyć stronę na 52 języki; dostępna jest wersja Pro, dzięki której te strony zostaną zaindeksowane przez Google; wersja Pro jest płatna; WordPress posiada podobny moduł, tyle, że bezpłatny;
  2. ImageActions - moduł, którego używam do przeróbki uploadowanych obrazków;potrzebowałem go, by dodawać do obrazków tzw. "znaki wodne";
  3. ThemeKey - moduł pozwalający wyświetlać skórki dostosowane indywidualnie pod daną stronę/strony. 
  4. Taxonomy Breadcrumb. Dobry moduł, gdyż ułatwia użytkownikom odnalezienie się na stronie. Pozwala na tworzenie własnych sekcji, które następnie są wyświetlane np. w takiej formie jak :  home >> vocabulary >> term Dodatkowym plusem jest fakt, iż Google uznało taką formę za wartościową i strona Drupal.org wyświetla się w ten sposób : 
  5. Embedded Media Field - prosty moduł do filmów;oparty o CCK;obsługuje kilkanaście największych serwisów video, m.in. YouTube, Vimeo, MetaCafe;korzysta z API serwisów, co pozwala zmienić wygląd video za pomocą kilku kliknięć.
To jest dopiero zalążek artykułu. Jeśli chcesz zobaczyć większą listę (jeden z najlepszych artykułów na tym blogu) przejdź na wpis : Spis najlepszych modułów do Drupala

poniedziałek, 7 grudnia 2009 0 komentarze

Sposobów na zmierzenie ile strona jest warta jest naprawdę wiele: Google Page Rank, polecenie Google Site, Yahoo! Site Explorer, statystyki odwiedzin (np. Google Analytics), Alexa Rank... Teraz wymyślono jeszcze Cache Rank.

Założenie algorytmu Cache Rank jest bardzo proste : Google Page Rank jest niedokładne i nieaktualne. Gwoli ścisłości, chodzi o Toolbar Page Rank, bo jak wiadomo Google nigdzie nie podaje ile Real Page Rank wynosi. Tu nadmienię, że na pewno najlepszym wyznacznikiem jakości strony jest ilość odwiedzin albo ilość unikalnych użytkowników. Mając takie dane można prosto wywnioskować, czy strona jest pomocna, a to przecież dla firmy z mottem "Don't be evil" kwestia być albo nie być. To właśnie dlatego Google wprowadza na rynek kolejne rewelacyjne spyware typu Google Analytics, Google Chrome, Google Chrome OS itd. Niby darmowe narzędzia, a ile to danych w zamian. Niestety z tymi danymi jest taki problem, że dla Google są zbyt cenne, by je publicznie udostępniać. Nieco więcej udostępnia jeszcze Alexa.com, ale to i tak niewiele i ciężko naprawdę z tych danych wyciągnąć jakieś dalej idące wnioski. Dalej idąc jako wiarygodny wyznacznik odpada Google Site i Google Link, Yahoo (bo kogo obchodzi co sobie tam gromadzi ta nie polskojęzyczna wyszukiwarka). Narzędzia do wyceny stron to oczywiście wielkie "g" i nie ma sobie co nimi zaprzątać głowy. Można by jeszcze coś o Bingu napisać, ale ta nowa wyszukiwarka jest dopiero wielkości około 1/5 Google, a więc odpada. Pozostaje Page Rank.

Page Rank wbrew obiegowej opinii tzw. świeżych ekspertów nie jest rankingiem strony, ale rankingiem Page'a, a dokładniej Larry'ego Page, gdyż tak nazywa się człowiek, który go skonstruował. W środowisku pozycjonerów czy specjalistów od SEO panuje zgodna opinia, że PageRank jest w pewnym stopniu wyznacznikiem wartości strony. Działa on w ten sposób, że każda strona, z której otrzymuję linka przekazuje mi jakąś niewielką wartość PageRank. W ten sposób można dojść do wsniosku, że najwyższy PageRank otrzyma strona podlinkowana ze stron z wysokim PageRankiem. Można też domniemać, że wysoki PageRank idzie w parze z wysokim TrustRank i mamy całkiem niezły sposób na wyznaczenie wartośc strony.

Niestety PageRank ma swoje wady. Przede wszystkim łatwiej go zrobić na stronach z małym site, gdyż każdy link wychodzący osłabia nieco PageRank strony. Poza tym PageRank jest tylko obrazkiem i dlatego dla Google jest on sprawą bagatelną. Co innego, gdyby stworzenie obrazka wymagało czegoś więcej, np. poświęcenia zasobów własnych serwerów. Takie właśnie zasoby Google przeznacza i to w ogromnych ilościach na swoje pająki (crawlery), które indeksują sieć World Wide Web. I właśnie ktoś wpadł na to, że skoro tak jest, to Google nie wysyła ich na strony nic nie warte. Wysyła je tam gdzie trzeba... i da się to zmierzyć.

To tyle tytułem wprowadzenia do Cache Ranku. Nie będę kaleczył oryginałów swoim tłumaczeniem. Chcecie wiedzieć jak zmierzyć Cache Rank? Wejdźcie na stronę  http://www.searchenginepeople.com/blog/discover-what-google-really-thinks-of-your-pages.html

sobota, 5 grudnia 2009 2 komentarze



1. Zła wyszukiwarka.


Problem z wyszukiwarkami polega głównie na tym, iż nie są one w stanie wyłapać literówek, odmieniać przez przypadki. Główny błąd popełniany przy programowaniu wyszukiwarki polega na tym, że zamist wyświetlać wyniki według ważności, to wyświetlają według liczby powtórzeń szukanego słowa. Swoje zadanie najlepiej spełni prosty formularz wyszukiwania, chociaż wyszukiwarka z opcjami zaawansowanymi będzię jeszcze lepsza. Ważne jest też, aby wyniki prezentować w sposób podobny do Google.

2. Pliki PDF.


Kolejny błąd to umieszczanie na stronie plików w formacie .pdf zamiast w formacie hipertekstowym. Nie dość, iż zatrzymuje to proces przeglądania Internetu (sic!) to jeszcze sprawia trudności w nawigacji, gdyż jest ona inna niż w przeglądarce, do której użytkownik jest przyzwyczajony. Poza tym wygląd plików .pdf jest zoptymalizowany pod druk i wygląda źle na monitorze. Ponadto taką stronę przegląda się gorzej, gdyż nie ma takich możliwości nawigacji.

3. Niezmienianie koloru odwiedzonych linków.


Dobra nawigacja pozwala lepiej zrozumieć w którym miejscu znajdujesz się obecnie. Znając odwiedzone przez siebie strony łatwiej jest zdecydować gdzie iść dalej. Zmiana koloru odwiedzonych linków ułatwia użytkownikowi unikanie bezwartościowych stron oraz może spowodować ponowną wizytę na stronie, która już wcześniej okazała się pomocna. Poza tym użytkownik widząc sam, że kiedyś już tu był może sobie przypomnieć, że kiedyś już tu był oraz które strony były dla niego wartościowe, a które nie. Może to go też zachęcić do głębszych poszukiwań.

4. Źle sformatowany tekst.


Zwyły, niesformatowany tekst to taki, który na przykład znasz z notatnika Windows lub innego najrpstszego edytora tekstu. Taki tekst jest śmiertelnie nudny i nieczytelny. Nasz wzrok jest tak skonstruowany, że bardziej wyszukuje nieregularności niż regularności. Dlatego warto wzbogacić nasz tekst o pogrubienie, kursywę, podkreślenie i przekreślenie. Dla lepszej przejrzystości tekstu warto dodać paragrafy, nagłówki oraz stosować zasadę KISS, czyli Keep It Simple Stupid. Ważny jest też język naszej prezentacji. Należy pisać dla przeciętnego użytkownika, a co za tym idzie wyjaśniać trudniejsze terminy, które mogą być dla niego niezrozumiałe.

5. Standardowy rozmiar czcionki.


Na rynku znajduje się kilkanaście popularnych przeglądarek i każda z nich posiada nieco odmienne ustawienia standardowe. Standardowy rozmiar tekstu w jednej będzie najbliższy 12px a w innej 16px. To może sprawić, że postawimy użytkownika przed blokiem tekstu, który będzie nienajlepiej wyglądał lub będzie słabo czytelny. Z najnowszych badań wynika, że podstawowy rozmiar czcionki powinien wynosić 16px.

6. Tytuły stron niezoptymalizowane pod wyszukiwarki.


Optymalizacja stron WWW to jeden z tematów najczęście przwijających się w tych stronach, dlatego uważam iż nie ma sensu nikomu wykładać tej wiedzy raz jeszcze. Krótko mówiąc tytuł strony "Witamy" to najprostszy sposób, by popełnić błąd nr 6.

7. Obrazki wyglądające na reklamy.


Użytkownicy są jak pijawki, a im jestem starszy tym bardziej się o tym przekonuję. Chcą super zajefajnych stron WWW, ale broń Boże, by były na nich jakieś reklamy. Najlepiej więc byłoby zatrudnić armię skrzatów do darmowego zapełniania zawartości stron WWW. Niestety nie posiadam takich kontaktów, więc wszystko piszę sam. Ale odbiegłem od tematu. Użytkownicy nie lubią reklam i bez względu na to co o tym sądzisz, ich wzrok omija wszystko co choćby przypomina reklamę. Jeśli zdjęcia produktów, które sprzedajesz wyglądają na banery, to nawet na nie nie spojrzą.

8. Nieprzestrzeganie głównych zasad w tworzeniu stron WWW.


Użytkownicy 99% czasu spędzają na innych stronach niż Twoja. Dlatego też uczą się sposobu, w jaki one funkcjonują i wyciągają z tego wniosek "W jaki sposób powinna funkcjonować Twoja witryna". Jeśli łamiesz któryś z podpunktów ich "prawidłowego funkcjonowania stron WWW" to Twoja strona może zostać uznana za błędną, choć pod każdym względem jest prawidłowa.

9. Otwieranie nowych stron w nowych oknach przeglądarki.


Jedną z implikacji otwierania stron w nowych oknach przeglądarki jest brak możliwości użycia przycisku "Wstecz". W taki sposób użytkownicy mogą sobie odciąć drogę powrotu na Twoją stronę i już nigdy na nią nie wrócić. Poza tym może on nie zauważyć nowo otwartego okna - tyczy się to zwłaszcza użytkowników z małymi monitorami. W końcu użytkownik powinien mieć wrażenie panowania nad sposobem w jaki przegląda Internet. Wszelkie niespodziewane działania wykonane przez jego przeglądarkę uznaje za wrogie.

10. Brak odpowiedzi na postawione pytanie.


Użytkownicy wchodzą na stronę w jakimś konkretnym celu, może to być nawet zakup produktu. Jeśli na stronie nie mogą dostać tego, czego chcieli, to z niej wychodzą. Może się tak zdarzyć, iż pomimo poszukiwany przez nich produkt znajduje się na stronie, to go nie odnaleźli. Jednym z najczęstszych błędów podpadających pod ten podpunkt jest brak ceny produktu na stronie. Bardzo ważne, by cena znalazła się na stronach kategorii oraz w wynikach wyszukiwania. Jej brak może sprawić, że użytkownik wymyśli sobie, iż tego obecnie nie ma na magazynie lub coś w tym stylu. Efekt zawsze będzie taki sam - zakupi produkt u konkurencji i jeszcze powie 10 znajomym jacy jesteście.

Na podstawie : http://www.useit.com/alertbox/9605.html oraz źródeł własnych.

wtorek, 1 grudnia 2009 12 komentarze
Profesjonalny Hosting

Najnowsze