Przeglądając wyniki w Google Analytics, część danych staram się monitorować codziennie, a inne co jakiś czas. W ten sposób na bieżąco monitoruję kluczowe parametry, przez co szybko wyłapuję błędy oraz wykrywam trendy w poszczególnych zmianach.
Błąd 1.: Niepoprawna implementacja
Podstawą efektywnej analizy jest posiadanie realnych danych. Większość najpopularniejszych narzędzi analitycznych jest darmowa, a ich instalacja na stronie, w sklepie czy w aplikacji nie przysparza dużych problemów osobie z podstawową wiedzą techniczną. Przystępując jednak do każdego serwisu, w pierwszej kolejności opiniuję, na ile posiadane dane są realne, czy nie ma w nich braków lub niepokojących anomalii, takich jak: zdublowane skrypty, skrypty osadzone w złym miejscu, braki w podstawowych ustawieniach narzędzi, brak odseparowania środowiska testowego od produkcyjnego itp.
Dlatego patrząc na kolejny wykres, staram się krytycznie ocenić wyniki, zwłaszcza gdy są one nadmiernie pozytywne. Warto przed rozpoczęciem świętowania sukcesu zastanowić się, czy nie jest on przesadny: zerowy współczynnik odrzuceń, nagły wzrost średniej wartości koszyka o kilkadziesiąt procent (bez specjalnej akcji promocyjnej) jest możliwy, ale czy zawsze realny?
Trzeba też pamiętać, że poprawna implementacja nie gwarantuje jej poprawności na wieki. Tak jak zmieniają się serwisy, tak zmieniają się narzędzia analityczne, więc niech nie zaskoczy Was nawet po latach jakiś dziwny wzrost odsłon czy nagły spadek konwersji. Dla większości developerów Analytics to taki sam kod jak każdy inny, więc to, co dla Was jest najważniejsze, czyli raporty i poprawność danych, dla programisty najczęściej ma marginalne znaczenie. Dlatego nie liczcie, że to programista powie Wam, iż coś jest nie tak.
Błąd 2.: Niewłaściwa konfiguracja
Powiedzmy, że mamy poprawnie działający skrypt, który jest właściwie wprowadzony w kodzie strony. Przed przystąpieniem do analizy warto zrobić coś jeszcze. A mianowicie tak skonfigurować narzędzia, aby uzyskać prawdziwe wyniki, realnych użytkowników.
Mam na myśli to, że każdy ruch pracownika sklepu internetowego zostawia ślad w analizach, choć jest ruchem o wyjątkowo niskiej konwersji czy ekstremalnie długim czasie trwania sesji. W przypadku działu obsługi, który składa zamówienia lub rejestruje użytkowników bezpośrednio na stronie, mamy do czynienia z wyjątkowo wysoką konwersją przy niemalże 100-procentowym udziale wejść bezpośrednich.
Im większy ruch własny na stronie, tym jego wpływ na ogólne wyniki będzie większy. A jak wiadomo – lepiej cieszyć się ze 100 prawdziwych sesji niż nawet 1000, ale własnych.
Błąd 3.: Za mała baza danych, kilku użytkowników dziennie
Mała baza, czyli niewielki ruch userów, to również błąd, który podczas prowadzenia analiz będzie skutkował zafałszowanymi wnioskami, a w konsekwencji błędnymi decyzjami. Zdaję sobie sprawę, że nie każdy serwis osiągnie milionowy ruch, nie do każdego trafią co miesiąc setki tysięcy unikatowych użytkowników, ale do analizy potrzeba odpowiedniej ilości danych.
W niewielkim zbiorze danych swój udział mocno zwiększają zachowania jednostkowe, np. w przypadku sklepu z kilkudziesięcioma transakcjami miesięcznie, nawet 2–3 transakcje na ruchu z wyszukiwarki Bing mogą stanowić 10% całego przychodu. Czy na tej podstawie można powiedzieć, że warto zwiększyć nakłady finansowe i czasowe na działania skierowane na tę wyszukiwarkę? Oczywiście, ale czy będzie to długofalowo trafiona decyzja?
Proponuję poczekać z podjęciem takich decyzji nieco dłużej, aby uzbierać więcej niż sprzedaż z 2–3 miesięcy. Jeżeli taki poziom udziału w sprzedaży utrzyma się przez 6–9 miesięcy, to będę mógł powiedzieć: „coś w tym jest”, ale jeżeli w jednym miesiącu będzie to 10%, w drugim 5%, a w trzecim 0%, to okaże się, że tych kilka transakcji to raczej przypadek niż powtarzalne wydarzenie.
Poniżej przykład zmiany udziału w sprzedaży i ruchu dla małego sklepu w różnych aspektach czasowych, gdzie widać, że kilka przypadkowych transakcji z jednego tygodnia w całym kwartale znaczy już znacznie mniej.
Odseparuj ruch z własnego biura, z firmy programistycznej, sklepów stacjonarnych, itp. Wtedy zmiany będą realizowane na podstawie zachowania realnych użytkowników i skierowane na zmianę ich zachowań. Nowa forma prezentacji produktu ma zmienić zachowania potencjalnych Klientów a nie pracowników.
Inaczej wygląda sytuacja, gdy mamy dużą liczbę userów. Wtedy łatwo zauważyć poziom powtarzalności, wyraźne trendy zmian, zmianę zachowań w zależności od dnia tygodnia, pogody, świąt itp. W takim przypadku każda analiza i wprowadzona na jej podstawie zmiana powinny bardzo szybko powrócić jako zmiany w poszczególnych parametrach.
Błąd 4.: Nadinterpretacja
Na każdą liczbę, każdy wykres można patrzeć z kilku stron i za każdym razem dochodzić do innych wniosków. Dlatego tak istotne jest, aby na pozyskane wyniki spojrzeć z perspektywy ocenianych celów. Jeżeli oceniamy zmiany w ścieżce zakupowej zaraz po dużej akcji promocyjnej – średni koszyk po akcji promocyjnej „wszystko za 5 zł”, sprzedaży w słoneczny długi weekend majowy – to spójrzmy na nie z perspektywy tej akcji, wydarzenia, zamiast stwierdzać: „konwersja nam rośnie”, „średni koszyk spada razem ze sprzedażą”.
Szczególnie często spotykam się z taką nadinterpretacją podczas analizy kosztów zakupu ruchu, gdy często koszt jest 1:1 porównywany z przychodem z danego źródła czy kampanii. Wówczas szybko można dojść do wniosku, że najlepiej sprzedać przez kampanię skierowaną na naszą markę (brand), „darmowe” wyniki wyszukiwania, i nie warto prowadzić kampanii na Facebooku czy w remarketingu, bo tam przychód z każdej wydanej złotówki jest zdecydowanie niższy. Patrząc w ten sposób, przyznam rację, 1:1 to się nie spina, ale dla przyszłości biznesu to na pewno mocne ograniczenie rozwoju i jednost...
Pozostałe 70% treści dostępne jest tylko dla Prenumeratorów
- 6 wydań magazynu "E-commerce Polska"
- Dodatkowe artykuły niepublikowane w formie papierowej
- Dostęp do czasopisma w wersji online
- Dostęp do wszystkich archiwalnych wydań magazynu oraz dodatków specjalnych
- ...i wiele więcej!