30.06.2020 Marcin Malicki

Kto nie okiełzna big data, zginie w otchłani internetu

W działaniach marketingowych coraz większą rolę odgrywają big data oraz mechanizmy sztucznej inteligencji. Aktywność reklamowa wymaga dzisiaj grania na wielu instrumentach jednocześnie.

 

Zwykło się uważać, że w dziedzinie marketingu działania dotyczące wizerunku i performance to dwie zupełnie odmienne metody działania. Podziela Pan taką opinię? Jest sposób aby połączyć te elementy?

 
Wynika to z ewolucji rynku reklamy w kanale digitalowym. Na początku w ogóle nie było takiego podziału, bo nie dało się precyzyjnie mierzyć wpływu emisji reklamy na efekt biznesowy. Wraz z rozwojem narzędzi reklamowych Facebooka i Google’a, ale także email marketingu, zaczęły powstawać oddzielne zespoły odpowiedzialne za takie budżety w odróżnieniu od budżetów wizerunkowych, a także wyspecjalizowane agencje performance. Przez chwilę spowodowało to zachłyśnięcie możliwościami „czystej” efektywności – może nawet nie tyle samymi skutkami, co narzędziami do monitorowania oraz rozliczania ROI. Szybko okazało się jednak, że rozwiązanie to ma swoje ograniczenia. Modele są często zbyt płytkie i trudno do końca ustalić, jakie dokładnie działania doprowadziły do „last click” użytkownika, który kupił produkt lub usługę.
 
Dobrzy marketerzy wiedzą już, że skuteczna aktywność reklamowa wymaga grania na obu tych instrumentach jednocześnie. Poprzez całościowe spojrzenie na ścieżkę użytkownika możemy planować kampanię tak, by te elementy się uzupełniały. Możemy odpowiednio zaplanować działania wizerunkowe czy edukacyjne, które zbudują zaufanie do marki i produktu, a reklamodawcy pozwolą stworzyć precyzyjny profil odbiorców z odpowiednią intencją zakupową. Wówczas możemy lepiej dopasować aktywność efektywnościową, która będzie skuteczna „w dole” lejka zakupowego użytkownika.
 
To spojrzenie na oba wymiary jednocześnie pozwala na głębsze, a przez to skuteczniejsze modele atrybucji i lepsze rozłożenie budżetu reklamowego.
 
Big data to pojęcie, które w ciągu ostatnich kilku lat zrobiło zawrotną karierę. W branży pojawiają się jednak opinie, a także opracowania sugerujące, że firmy czy wydawcy nie radzą sobie z odpowiednim wykorzystaniem wciąż rosnącej ilości informacji, łączenia ich w skuteczną i dającą korzyści całość. Chodzi o kwestie technologiczne? Jak to robicie w WP? Jakie są Wasze doświadczenia z działaniami na big data? To koń, którego da się okiełznać?
 
Filmy straszą nas wizją cyfrowych bóstw, jak przewidujący przyszłość superkomputer z serialu „Devs” czy sterujący światem model Jeroboam z „Westworld”, a newsy pełne są historii o algorytmach, które wiedzą o tym, że kobieta spodziewa się dziecka i emitują odpowiednią reklamę, zanim ta kobieta wykona test ciążowy.
 
Rozpaleni tymi obrazami klienci są potem często zawiedzeni mizernym efektem w postaci kilku mało zrozumiałych wykresów, które później można zobaczyć w grupie na Facebooku „Beka z data science”. Pojęcie big data to po prostu „dużo danych”, nic więcej. Sama ilość, choćby były to dane w formie cyfrowej, nic jeszcze nie daje. Żeby dane wniosły realną, możliwą do przełożenia na pieniądze wartość, kluczowe są dwa momenty – oba mało spektakularne i wymagające żelaznej konsekwencji. Pierwszy to świadome zaplanowanie procesu zbierania danych tak, by były prawdziwe (zgodne z rzeczywistością, a nie np. deklaracjami), jednoznaczne w interpretacji oraz istotne dla obszaru, którym się zajmujemy. Tylko takie dane mają zastosowanie, reszta to z biznesowego punktu widzenia rozległy, ale jednak śmietnik.
 
Drugi to stworzenie procesu wykorzystania tych informacji. Biznesowe wykorzystanie dużych zbiorów danych może być bardzo różne. Wszystkie poniższe przykłady mają zastosowanie w WP. Możemy stworzyć algorytm, który zautomatyzuje i przyspieszy procesy wykonywane ręcznie przez człowieka. Np. zapewni wysokie pozycjonowanie na stronie artykułów, które są najchętniej czytane i automatyczne zdejmowanie tych, które nie budzą zainteresowania czy dobieranie najlepszych zdjęć i tytułów.
 
Możemy sprawić, że algorytm będzie „rozumiał” faktyczną treść artykułów i filmów, dopasowywał reklamę do ich kontekstu czy reklam i dobierał użytkownikowi w spersonalizowany sposób takie treści, które go potencjalnie najbardziej zainteresują. Znajdujemy też zastosowanie zaawansowanych mechanizmów automatycznej analizy rozległych zbiorów zdań i tekstów w Poczcie WP do wychwytywania SPAM-u. Możemy dokonać pogłębionej analizy zachowań i preferencji użytkowników tak, by na podstawie insightu lepiej rozwijać produkt dla niego.
 
Na najgłębszym poziomie analizę dużych zbiorów danych wykorzystuje się w procesie planowania strategicznego, czyli wyznaczania kierunków i celów dla organizacji. Kultura pracy WP bardzo ściśle opiera się na mierzalnych i stale monitorowanych rezultatach, co sprawia, że proces mądrego i precyzyjnego określania celów jest dla nas absolutnie newralgiczny.
 
Podsumowując, o spektakularnym efekcie decydują więc nudne, naprawdę mało romantyczne sprawy: plan działania, porządek w danych, proces przetwarzania, dobrze zaplanowana architektura komunikacji między systemami, metodologia obróbki oraz odpowiednia koncepcja zastosowania.

Jakie korzyści z odpowiedniego przetwarzania danych może odnieść Wasz klient? Jaki jest Wasz sposób, by przekuwać morze surowych danych w insighty, które z kolei pozwalają skutecznie doradzać partnerom?
 
Rzeczywiście, dzięki danym które posiadamy dostarczamy partnerom „insight”, który pozwala im lepiej zrozumieć swoich klientów i ich motywacje. Ale dziś skupiamy się bardziej na rozwoju modeli, które są na tyle złożone, że trudno je „humanistycznie” opisać, bo prowadzi to do zbytnich uproszczeń. Matematyczne, wielowymiarowe, wektorowe modele opisu użytkownika i jego preferencji, które stosujemy, mogą wydawać się na pozór mniej „ludzkie”, ale jest dokładnie odwrotnie. Prawdziwy człowiek jest przecież kimś dużo bardziej skomplikowanym niż typowa etykieta „fan sportu”, „menadżer z dużego miasta” czy „miłośniczka zdrowej żywności”. Dzięki złożonym modelom dużo lepiej trafiamy w rzeczywiste, wielowymiarowe, a przede wszystkim zmienne preferencje odbiorców. Rezultaty, które osiągamy w ten sposób są nieporównywalnie lepsze niż tradycyjnie definiowane kampanie. Widzimy to na twardych danych.
 
W branży coraz częściej mówi się nie o ilości, ale o jakości. Ma to dotyczyć między innymi personalizacji przekazu. W jakim stopniu ten spersonalizowany jest bardziej skuteczny? Co mówią na ten temat dane i wskaźniki? Czy jako „spersonalizowany” użytkownik internetu będę szczęśliwszy niż wcześniej?
 
Zalewa nas morze informacji, nie damy sobie rady bez wsparcia w wyławianiu tych, które są dla nas rzeczywiście istotne w danym momencie. Już dziś internet jest w ogromnym stopniu personalizowany. Tu nie ma więc już pytania „czy”, a tylko „jak”. Do naszych indywidualnych preferencji dopasowywane są wyniki wyszukiwania w Google, feed na Facebooku i TikToku, filmy na Netfliksie i propozycje produktów na Amazonie czy Allegro. W WP stosujemy mechanizmy dopasowujące treści od kilku lat, co podniosło efektywność wydawanych materiałów o co najmniej kilkanaście procent, a jeszcze mnóstwo przed nami. Kto tego nie będzie robił, zginie w otchłani internetowego contentu. Sztuką jest oczywiście mądre wyważanie między podążaniem za potrzebą, a tworzeniem nowej oraz przeciwdziałanie zamykania w „bańce” preferencji opartych na wcześniejszych wyborach.
 
Big data rodzi pewne obawy, chodzi o kwestie prywatności, która staje się powoli dyżurnym tematem w kontekście internetu. Zagadnieniem, w którym duzi gracze internetowi zwykle nie są wymieniani po stronie dobrego szeryfa. Da się zmienić to odczucie, przekonać „internetowy lud” że big data może przynieść korzyści wszystkim, a nie tylko korporacjom i biznesowi?
 
Widzimy w różnych badaniach i analizach, że dzisiejszy użytkownik internetu jest dużo bardziej świadomy wartości danych o sobie niż kilka lat temu. Serwisy subskrypcyjne nauczyły też ludzi, że treści w internecie nie powstają za darmo – albo trzeba za nie zapłacić gotówką albo z przychodu reklamowego, który opiera się na danych. Myślę, że ewolucja jest dobra dla wszystkich. Ludzie są gotowi dzielić się swoimi danymi, jeśli mają zaufanie do tego, kto je zbiera i doceniają korzyści, jakie z tego wynikają (darmowe treści, wygoda, lepsze dopasowanie itp.). Przetwarzający dane i ich właściciele muszą tworzyć relację opartą na szacunku i jasnych zasadach. Komunikacja ubezpieczycieli, banków, telekomów i innych korporacji zmienia się pod tym względem zdecydowanie na lepsze.
 
Czy w Pańskiej dziedzinie sztuczna inteligencja to wciąż Święty Graal i pieśń przyszłości, czy już teraźniejszość? Czy w WP wykorzystujecie rozwiązania AI? Jeśli tak, to w jakim zakresie?
 
AI trochę kojarzy się wszystkim z myślącą, może nawet samoświadomą maszyną. To zdecydowanie pewna wizja, trochę koncept filozoficzny. Natomiast w praktyce AI stosuje się jako zbiorczą nazwę na różne praktyki obejmujące automatyzację procesów, uczenie maszynowe, sieci neuronowe czy automatyczną analizę języków naturalnych.
 
W takim ujęciu to zdecydowanie już teraźniejszość. W WP stosujemy automatyzację procesów w cyklu wydawniczym, głęboką automatyczną analizę języka naturalnego oraz uczenie maszynowe do kategoryzacji i personalizacji treści czy automatyczne modelowanie grup targetowych oraz optymalizację bidowania w naszych systemach reklamowych. W Poczcie WP zastosowanie mechanizmów sztucznej inteligencji to robocza codzienność bez której nie może funkcjonować. Zespół Poczty używa ich m.in.. w zakresie ochrony przed botami, wykrywania anomalii logowania, które znamionują cyberataki oraz do automatycznej klasyfikacji zarówno pod kątem blokowania spamu, jak i tematycznej segregacji e-maili.
 
Eksperymentujemy też z Robo Journalismem, czyli artykułami generowanymi automatycznie na podstawie danych np. o tematyce sportowej.
 
Jak wiele osób pracuje w Pańskim zespole? Jakiego rodzaju są to specjaliści? Jak wygląda w nim zwykły dzień pracy?
 
W obszarze wykorzystania danych pracuje w WP już kilkadziesiąt osób. Mamy socjologów specjalizujących się w analizie ilościowej, ekspertów badań jakościowych, analityków contentowych, kilku data scientists, w tym z tytułami i poważnym dorobkiem naukowym, analityków big data oraz programistów specjalizujących się we wdrażaniu algorytmów automatycznego przetwarzania danych. Prowadzimy równolegle kilkanaście różnych streamów projektowych w obszarze contentu, targetowania reklamy, analizy trafficowej. Część z nich nie różni się wiele od typowych projektów IT z normalną roadmapą, statusami i kamieniami milowymi. Ale niektóre przypominają bardziej pracę w laboratorium. Nieraz po miesiącach błądzenia pozornie bez celu i efektu następuje nagle wielkie „Bum!” i dochodzimy do przełomowego rezultatu, który w jednej chwili przesuwa efektywność naszych produktów o kilka długości. To są najpiękniejsze chwile.
 
Wyłącza Pan czasem internet? Coraz więcej osób deklaruje że tak robi, oczywiście przy założeniu że mówią prawdę. Czy można stać się niewidocznym dla sieci?
 
Rzadko wyłączam, chyba że wyjadę gdzieś „poza zasięg” – co mi się czasem zdarza. Jednak przeczytałem kiedyś poważne opracowanie naukowe, które wykazało, że najskuteczniejsze w ograniczaniu nawyku sięgania do sieci są metody najprostsze – zwykłe zwiększenie „friction”, systemowe utrudnienie sobie tego. Po pracy staram się więc po prostu odłożyć smartfon poza zasięg wzroku i ręki, co samo w sobie świetnie działa. Włączam też okresową blokadę dostępu do części aplikacji, czasem też wyłączam kolory w interfejsie, by ograniczyć wizualną stymulację wzroku. Udało mi się w ten sposób zmniejszyć „niechciany” kontakt z internetem o jedną trzecią. Polecam spróbować.

 
zobacz również