Google BERT Update, czyli Google coraz lepiej rozumie intencje zapytań

W 2019 roku Google nie przestaje nas zaskakiwać. W marcu, czerwcu, a ostatnio także we wrześniu przez SERP przetoczyły się obszerne aktualizacje, które mocno przetasowały pozycje stron. Google nadal nie przestaje doskonalić swoich algorytmów i kilka dni temu ogłosiło niespodziankę w postaci wdrożenia modeli BERT w algorytmach wyszukiwania. Jak działa ta technika i kiedy dotrze do Polski?

Jak działa BERT?

Bidirectional Encoder Representations from Transformers, czyli w skrócie BERT, to technika przetwarzania języka naturalnego oparta na sieci neuronowej. Jest ona kolejnym krokiem milowym prowadzącym do precyzyjnego zrozumienia intencji zapytania, które użytkownik wprowadza w oknie wyszukiwarki. 

Na czym polega siła BERT? Model ten jest pierwszą głęboko dwukierunkową, nienadzorowaną reprezentacją języka. Istotna jest właśnie dwukierunkowość analizy tekstu. Oznacza ona, że algorytm analizuje treść zapytania nie – jak to miało miejsce dotychczas – słowo po słowie według kolejności, w jakiej zostały one wprowadzone, ale kompleksowo, uwzględniając zarówno znaczenie poszczególnych słów, jak i ich związek ze wszystkimi pozostałymi elementami wprowadzonej frazy. Analiza związków pomiędzy wszystkimi słowami zapytania pozwala algorytmowi na ściślejsze określenie kontekstu frazy, a więc lepsze dopasowanie wyników wyszukiwania do potrzeb użytkownika. W analizie tej nie zostaną teraz pominięte także przyimki, do tej pory ignorowane przez wyszukiwarki, a które w rzeczywistości w wielu językach mogą mieć ogromny wpływ na ustalenie właściwego kontekstu zapytania. 

BERT nie ma na celu zastąpienie działającego od 2015 r. algorytmu RankBrain. Oba algorytmy będą funkcjonować równolegle, przy czym BERT zapewne sprawdzi się głównie w interpretacji dłuższych zapytań, które nie mają hasłowego charakteru.

Czy mogliśmy się spodziewać nadejścia BERT? Tak, ponieważ Google od dłuższego czasu testował modele przetwarzania i rozumienia naturalnego języka (NLP i NLU). Co ciekawe sam model BERT został udostępniony przez Google jako open-source już w listopadzie 2018 roku. Już wtedy zaprezentowane możliwości tego algorytmu były imponujące, zatem jego wdrożenie było tylko kwestią czasu. Nie oznacza to, że Google spocznie na laurach – nawet w ostatniej informacji o wdrożeniu BERT Google zaznacza, że praca nad doskonaleniem algorytmów wyników wyszukiwania nadal trwa.

Kiedy BERT dotrze do Polski i czy można się przed nim uchronić?

Nowy model interpretacji treści zapytań od piątku 25 października br. przetacza się w Stanach Zjednoczonych po anglojęzycznych wynikach wyszukiwania, a w stosunku do prezentacji snippetów globalnie we wszystkich językach. Google nie określiło jeszcze terminu wdrożenia tego modelu w innych lokalizacjach ani językach, niejasno podając tylko, że będzie to “z czasem” rozszerzane na kolejne obszary. Nie wiadomo zatem, kiedy BERT dotrze do Polski i czy zostanie to poprzedzone jakąkolwiek informacją ze strony Google.

Czy można już teraz przygotować się na wdrożenie modelu BERT w polskich wynikach wyszukiwania? Czy optymalizacja strony pod kątem tego algorytmu jest możliwa? Co zmieni BERT w procesie pozycjonowania stron? Z opisu działania algorytmu jasno wynika, iż to kolejna zmiana, która doskonali metodę dopasowania treści do wyszukiwanej przez użytkownika frazy. Tym samym Google daje kolejny sygnał, że warto dbać o wartościowy content strony i stale rozwijać go, aby w jak największym stopniu odpowiadał na potrzeby użytkownika. Oczywiście dokładne analizy wpływu BERT na wyniki wyszukiwania będą możliwe dopiero za kilka dni, a być może nawet tygodni, gdyż Google przewiduje, że wahania pozycji stron w SERP-ach nie będą znaczące (mają objąć około 10% wszystkich wyników wyszukiwania). Niemniej jednak wdrożenie BERT już zostało okrzyknięte najważniejszą zmianą od czasów wprowadzenia RankBrain.