wtorek, 10 stycznia 2017

Nowa grupa dla polskich firm z rynku IT

Nowa inicjatywa a co za tym idzie nowa grupa na Google+ przeznaczona dla polskich firm z rynku IT.

Myślą przewodnią jest skupienie i wymiana doświadczeń pomiędzy firmami zajmującymi się szeroko pojętym programowaniem, projektowaniem aplikacji, itd. Nie wyklucza to jednak udziały w grupie „wolnych strzelców”.

Zapraszam https://plus.google.com/communities/100691986526279683261

środa, 28 grudnia 2016

Google zmienia narzędzie do testowania stron na urządzeniach mobilnych.

Stary i dobry google pagespeed insights zdaje się odchodzić. Przynajmniej jeśli chodzi o test strony pod kątem obsługi na urządzeniach mobilnych. Co ciekawe wynik na starym GPI a nowym narzędziu wygląda całkowicie inaczej. Najwyraźniej zrezygnowano z wymiernej punktacji od 0-100. W tej chwili po prostu dostajemy komunikat, że jest OK. Wynik można udostępnić. Oto przykład: https://search.google.com/search-console/mobile-friendly?id=Mc3ZcCZ5x0YuYuv6jiTVXQ

niedziela, 18 grudnia 2016

Jak osadzić kilka filmów z Youtube na stronie w formie responsywnego slidera.

Zacznijmy od tego, że potrzeba jest nam biblioteka JQuery (do ściągnięcia na stronie projektu)

Plugin do osadzenia klipów dostępna jest Responsive YouTube Video Gallery Na stronie dostępne też jest DEMO.


W pierwszym kroku dołączamy skrypt js oraz css.


<script src="jq.video.slider.js"></script>
<link rel="stylesheet" type="text/css" href="jq.video.slider.css" media="screen" />

W kodzie HTML osadzamy nasze klipy z YT, przykładowo:

<div id="myVideoSlide">
<div class="videoitem">
<iframe allowfullscreen="" frameborder="0" height="315" src="https://www.youtube.com/embed/w9xsfICaS8U" width="560"></iframe>
<div class="desc_vs">Webdesign jeszcze z użyciem Flash</div>
</div>
<div class="videoitem">
<iframe allowfullscreen="" frameborder="0" height="315" src="https://www.youtube.com/embed/JjtRj5ybloY" width="560"></iframe>
<div class="desc_vs">Automatyczne generowanie przelew&oacute;w bankowych</div>
</div>
<div class="videoitem">
<iframe allowfullscreen="" frameborder="0" height="315" src="https://www.youtube.com/embed/ArqHzIjfwr0" width="560"></iframe>
<div class="desc_vs">Program do masowego wypełniania PIT-3(4) Podatek od czynności cywilnoprawnych</div>
</div>
</div>

Inicjujemy w kodzie js

<script type="text/javascript">
$(function () {
$('#myVideoSlide').videoOslide();
});
</script>

I gotowe:)

czwartek, 20 października 2016

Czy branża pozycjonowania stron www umrze?

Ostatnio aby nie być żywym przykładem przysłowia „szewc bez butów chodzi” postanowiłem mimo natłoku zajęć w końcu po trzynastu latach zbudować porządną stronę swojej firmy a nie poprzestać na tymczasowo zawieszonym jednym dokumencie html.

Nie chodzi jednak o budowanie samej strony www ale jak już się zabrałem, to postanowiłem się pochylić nad kwestią popularności strony w necie. Głównie oczywiście chodzi o pozycję w wynikach wyszukiwania.

No i się zaczęło:) Nie będę tu wylewał łez, że mam trudne frazy do wypromowania, że to proces czasochłonny i wymaga pracy. Nie o to mi teraz chodzi. Naszła mnie jednak refleksja. - Co teraz robią firmy które oparły swój model biznesowy na tak zwanym pozycjonowaniu stron?

Niby co mnie to obchodzi, ale... Sam zastanawiałem się nad skorzystaniem z usług takiej firmy. Wiadomo, mają zbudowane zaplecze, są skupieni na problemie, itd.

Pierwsza sprawa. Ceny od 10 złotych za frazę do kilkuset. Każdy obiecuje niesamowity i szybki wynik. Przyznać muszę, że taki rozrzut cenowy za tą samą usługę budzi pewne wątpliwości. Kolejna kwestia to sprawa odpowiedzialności. Dla wielu firm domena to główny walor w firmie. Jasne jest, że ban w Google czy filtr na frazę to duży kłopot. Żadna z firm nie chciała wziąć odpowiedzialności za „wypadek przy pracy”. Pamiętam ten opór też z dawniejszych lat kiedy to wiele firm zgłaszało się do naszej skromnej firmy z propozycją prowizji za polecenie naszych klientów. Spotykali się z odmową z tej prostej przyczyny, że jeśli coś polecam to też biorę za to odpowiedzialność. Czyli co mają do ukrycia? Inna sprawa, że domyślam się, iż pertraktacje z Google mogą iść opornie i taka firma może być nic niewinna za ban czy filtr. Ale czy na pewno? Nie znam takich pomyłek Google. Jeśli ktoś zna to zachęcam do komentarzy z informacją o takim przypadku.

Krótko mówiąc to taka szara strefa mi się zaczęła jawić. Słusznie czy nie ale jednak fakty budzą pewne wątpliwości.

Dzielnie więc sam zabrałem się do rzeczy. Guru zapewne w tej tematyce nie jestem ale taki ostatni tępak też nie jestem – wziąłem na klatę. I gdy tak zacząłem obcować z tematem zrodziło mi się właśnie to pytanie. Czy branża pozycjonowania stron umrze? A może już umarła a tylko rozpędem coś gdzieś się kręci?

Muszę dla niewtajemniczonych jasno napisać. Pozycjonowanie to nie to samo co optymalizacja pod algorytmy wyszukiwarek internetowych. To drugie jak najbardziej jest konieczne i chyba właśnie nabiera co raz większego znaczenia.

Zaplecze aby zapewnić lepszą pozycję. I co z tym? Okazuje się, że nic wielkiego. Co z takiego zaplecza firmy zajmującej się pozycjonowaniem jeśli:

  • na tych stronach prócz naszego jest masę innych linków,
  • ich tematyka nie ma nic wspólnego z naszą stroną www albo nawet wręcz nie ma żadnej tematyki.

Okazuje się, że ilość linków do naszej strony ma o tyle znaczenie jeśli są to linki o jakiejś wartości a wartością to jest z jakiego serwisu pochodzą. Oczywiście najlepiej aby o tematyce tożsamej z tematyką naszej strony. Nie sposób chyba zbudować takiego zaplecza dla szerokiego spektrum tematyki jaką prezentują potencjalni klienci.

I właśnie przestałem się martwić tematyką zaplecza, farm linków, itd.

Kolejny nóż w plecy do mityczny wręcz pagerank. Od 20 lat słyszę jaki to istotny element i jaki ma kolosalny wpływ na pozycję strony. Okazuje się, że Google sam zrezygnował z tej wagi. Podobno jest jeszcze brany pod uwagę ale tylko jako jeden z podobno 200 elementów branych pod uwagę w wyliczeniu pozycji strony w wynikach wyszukiwania.

Znaczenia nabiera już wspomniana jakość linków. Pisanie łamiących serce profesora Miodka tekstów na preclach również poszło precz. Duża waga jest przykładana do jakości wykonania strony www. Zgodności z standardami, z urządzeniami mobilnymi, szybkością ładowania, jakością tekstów na samej stronie... no dwustu elementów nie wymienię, bo nawet ich nie znam:) Nawiasem mówiąc to właśnie jakość wykonania strony można zaliczyć do SEO. Czyli spora część rzeczy istotnych dla pozycji strony www w wynikach wyszukiwania spada na barki webmastera.

Zdobywanie wartościowych linków opiera się na angażowaniu w internecie. Pisaniu ciekawych tekstów i linkowaniu do strony gdzie są opisane inne, w tym samym temacie, aspekty opisywanego problemu.

Czyli jest miejsce dla firm proponujących pozycjonowanie stron www?

Zapraszam do polemiki w komentarzach.

I wybaczcie proszę nieco chaotyczność tego tekstu ale jest prawie czwarta rano i jestem po całym dniu pracy:)



Polecam przy okazji: Zlecasz stworzenie strony www? Przeczytaj na co zwrócić szczególną uwagę.


Sławomir Własik
Netteria.NET - tworzenie stron internetowy, usługi programistyczne

piątek, 30 września 2016

Mein Kampf... z Google PageSpeed Tools Insights

Tytuł wpisu oczywiście żartobliwy ale nieco gorzko. Moja walka z tym narzędziem również, muszę przyznać, zakończyła się może nie klęską ale nie takim sukcesem jakiego oczekiwałem. Oczywiście oczekiwałem wyniku 100/100/100. - Tak, wiem, to przerost ambicji i próżny trud jak wielu mi mówiło i pisało. I faktycznie. O ile osiągnięcie takiego wyniku dla prostej strony, korzystającej wyłącznie z własnych skryptów wewnętrznych jest mniej lub bardziej trudne ale na pewno osiągalne o tyle dla złożonego serwisu www, korzystającego z API takich serwisów jak Twitter, Google, Facebook, jest walką z wiatrakami.

Porzuć ambicję chłopcze i zaakceptuj otaczającą cię rzeczywistość. - Niestety taka smutna prawda. Trudno obejść przykładowo ustawić daty wygaśnięcia lub maksymalnego wieku w statycznych zasobach HTTP dla plików API z zewnętrznych serwisów. Jest to często wykonalne i tak przykładowo dla Google Analytics można to zrobić kawałkiem kodu PHP (dla zainteresowanych Ładowanie GA z własnego serwera). Gorzej gdy taki zasób wewnątrz odwołuje się do serwera zewnętrznego. Można pomyśleć, że na zdrowy rozum można i taki zasób dołączyć podobnym sposobem. Nic bardziej mylnego. Często przesyłane są zmienne, które mogą być tylko analizowane na zewnętrznym serwerze. Nie twierdzę, że nie jest to wykonalne ale na pewno czasochłonne i obarczone dużym prawdopodobieństwem, że coś może pójść nie tak. Taką walkę przeprowadziłem z API Google+. Nie mniej nawalczyłem się z API Facebooka i Twittera.

Kolejny problem to tak złożone własne skrypty js i css, że nawet maksymalnie zoptymalizowane i skompresowane budzą niechęć GPSI i zostaniemy uradowani komunikatem, że powinniśmy zoptymalizować i skompresować swój zasób. Niestety, skompresowaliśmy już wszystko maksymalnie a nie mamy możliwości większej kompresji powiedzmy do gęstości gwiazdy neutronowej. I znów sugestia której nie jesteśmy w stanie podołać.

Inną radosną sugestią jest abyśmy wyeliminowali blokujący renderowanie kod JavaScript i CSS z części strony widocznej na ekranie. Mamy dwa wyjścia – wywalić kod, co oczywiście raczej nikomu rozsądnemu nie przyjdzie do głowy (chyba, że to faktycznie zbędny kod) albo idąc za radą Google przenieść kod za znacznik HTML. Tyle, że jeśli mamy bardziej złożoną stronę, zwłaszcza gdy skrypt js analizuje i reaguje na formatowanie zawarte w pliku css, to użytkownik na ekranie może zobaczyć naszą stronę w dość niekorzystnym stanie mówiąc delikatnie.

Reasumując mogę napisać i uderzyć się w pierś. Osiągnięcie 100/100/100 nie zawsze jest opłacalne. Oczywiście wyniosłem z tego jakąś korzyść. Przewaliłem kawał internetu i przy okazji przyswoiłem sporo innym przydatnych wiadomości. No i mogłem zrobić dla Was ten wpis na bloga:) Ku przestrodze, ku pokrzepieniu serc:)

Na koniec chciałbym tylko jeszcze napisać, że jeden wynik warto mieć 100. Chodzi mi o wygodę użytkownika na urządzeniach mobilnych. W tym miejscu nie jesteśmy ograniczeni niczym w zasadzie a wszystko zależy od odpowiedniego rozplanowania elementów strony. O ten wynik sądzę warto zadbać. Oczywiście pozostałe wyniki należy starać się za wszelką cenę utrzymać w zielonym polu.



Sławomir Własik
Netteria.NET - programowanie, tworzenie stron, usługi programistyczne

piątek, 23 września 2016

TOP 3 narzędzi online do testów wydajności stron internetowych

Jak ważna jest wydajność strony internetowej chyba nie trzeba nikomu szczególnie tłumaczyć. W internecie jest zalew różnych tego typu narzędzi ale sporo z nich jest naprawdę kiepska i moim zdaniem mało pomocna ponieważ daje niewiele miarodajne wyniki.

Osobiście preferuje i najczęściej korzystam z trzech.

Oto one:

Pingdom tools - tools.pingdom.com

Dla mnie numer jeden. Główną zaletą jest prostota. Zwraca sensowne wyniki które zdecydowanie mogą pomóc w optymalizacji strony internetowej. Istnieje możliwość wyboru czterech lokalizacji. Można sprawdzić jak nasza strona ładuje się na północy europy w stanach i kraju rzucających zakrzywionymi drągami.

WebPageTest - www.webpagetest.org

Dużo bardziej złożone narzędzie zwracające naprawdę sporą ilość przydatnych informacji. Istnieje możliwość symulacji bardzo dużej ilości lokalizacji serwera jak również systemu i przeglądarki internetowej.

Właściwie powinienem umieścić to narzędzie na pierwszym miejscu jednak Pingdom wygrał tym, że do szybkiego testu przy optymalizacji strony internetowej jest bardziej poręczny. Jednak zdecydowanie WebPageTest poddaje stronę głębszej analizie.

PageSpeed Insights - developers.google.com/speed/pagespeed/insights

I na koniec szybkie proste. Narzędzie dodatkowo sprawdza też responsywność strony internetowej. Daje sugestie co należy poprawić na stronie www. Nie przypadkowo napisałem "sugestie". Spotkałem się z opiniami, że nie należy przejmować się osiągnięciem wyniku 100/100. Ja jednak staram się do tego dążyć. Pisałem w wcześniejszym wpisie dlaczego.



Sławomir Własik
Netteria.NET - projektowanie stron internetowy, usługi programistyczne