Porady Semalt dotyczące korzystania z głębokiego uczenia w celu optymalizacji automatycznego tagu tytułu



Szybkim sposobem na objęcie pozycji lidera w rankingu SEO jest umieszczenie w tagu tytułu słowa kluczowego o najwyższym rankingu. A jeśli pomyślisz o tym przez chwilę, zdasz sobie sprawę, że to rzeczywiście sprytne rozwiązanie. Jeśli masz stronę, która jest już w rankingu dla słowa kluczowego bez tego słowa kluczowego w tytule, wyobraź sobie znaczenie posiadania słowa kluczowego w tytule. Będziesz naturalnie indeksowany częściej dla tego słowa kluczowego; stąd masz lepszą rangę.

Teraz, jeśli weźmiemy to słowo kluczowe i dodamy je do Twojego Meta Opisu, będą one podświetlone w wynikach wyszukiwania, co oznacza, że ​​więcej użytkowników wyszukiwarki prawdopodobnie kliknie. To oczywiście przyniesie korzyści witrynie.

Wyobraź sobie, że Semalt pracował nad witryną zawierającą setki, tysiące lub miliony stron. Gdybyśmy musieli to zrobić ręcznie, byłoby to czasochłonne i szybko się drogie. Jak więc możemy przeanalizować stronę i zoptymalizować każdy tytuł i opis meta? Rozwiązaniem jest użycie maszyny. Ucząc maszynę znajdowania słów kluczowych o najwyższym rankingu na każdej stronie, oszczędzamy czas i koszty. Korzystanie z maszyny może skutkować lepszą i szybszą wydajnością niż zespół wprowadzający dane.

Przedstawmy ponownie Ubera Ludwiga i Google T5

Łącząc Ludwiga Ubera i Google T5, masz całkiem potężny system.

Podsumowując, Ludwig to narzędzie Auto ML o otwartym kodzie źródłowym, które pozwala użytkownikom trenować zaawansowane modele bez konieczności pisania kodu.

Z drugiej strony Google T5 jest lepszą wersją modeli w stylu SERT. T5 może podsumowywać, tłumaczyć, odpowiadać na pytania i klasyfikować zapytania, a także wiele innych funkcji. Krótko mówiąc, jest to bardzo mocny model.

Jednak nic nie wskazuje na to, że T5 został przeszkolony w zakresie optymalizacji tagów tytułów. Ale może możemy to zrobić, a oto jak:
  • Otrzymujemy wyszkolony zbiór danych z przykładami:
    • Oryginalne tagi tytułów bez naszego docelowego słowa kluczowego
    • Nasze docelowe słowa kluczowe
    • Zoptymalizowane tagi tytułowe z docelowymi słowami kluczowymi
  • Kod dostrajający T5 i samouczki do użycia
  • Miej zestaw tytułów, które nie zostały zoptymalizowane, abyśmy mogli przetestować nasz model
Zaczniemy od zbioru danych, który został już utworzony, i przedstawimy przewodnik po tym, jak utworzyliśmy zbiór danych.

Autorzy T5 byli na tyle hojni, aby dostarczyć nam szczegółowy notatnik Google Colab, którego używamy do dostrojenia T5. Po spędzeniu czasu na jej studiowaniu byliśmy w stanie odpowiedzieć na dowolne pytania. Notebook Colab zawiera również wskazówki, jak dostroić T5 do nowych zadań. Jednak patrząc na zmiany kodu i wymagane przygotowanie danych, okazuje się, że wymaga to dużo pracy i że nasze pomysły mogą być doskonałe.

Ale co by było, gdyby to mogło być prostsze? Dzięki Uber Ludwig w wersji 3, która została wydana kilka miesięcy temu, mamy połączenie kilku bardzo przydatnych funkcji. Wersja 3.0 Ludwiga zawiera:
  • Mechanizm optymalizacji hiperparametrów, który uzyskuje dodatkową wydajność z modeli.
  • Bezkodowa integracja z repozytorium Hugging Face Transformers. Daje to użytkownikom dostęp do zaktualizowanych modeli, takich jak GPT-2, T5, DistilBERT i Electra do zadań przetwarzania języka naturalnego. Niektóre z takich zadań obejmują analizę sentymentu klasyfikacji, rozpoznawanie nazwanych jednostek, odpowiadanie na pytania i inne.
  • Jest nowszy, szybszy, modułowy i ma bardziej rozszerzalny backend, który opiera się na TensorFlow 2.
  • Zapewnia obsługę wielu nowych formatów danych, takich jak Apache Parquet, TSV i JSON.
  • Posiada on po wyjęciu z pudełka k-krotną weryfikację krzyżową.
  • Po zintegrowaniu z wagami i odchyleniami może być używany do zarządzania i monitorowania wielu procesów uczenia modeli.
  • Ma nowy typ danych wektorowych, który obsługuje zaszumione etykiety. Przydaje się to w przypadku słabych superwizji.
Jest kilka nowych funkcji, ale uważamy integrację z Transformersami Hugging Face za jedną z najbardziej przydatnych funkcji. Potoki przytulania twarzy mogą być użyte do znacznego usprawnienia działań SEO w tytułach i generowaniu opisów Meta.

Użycie potoku doskonale nadaje się do uruchamiania prognoz na modelach, które są już przeszkolone i są już dostępne w modelu bub. Jednak obecnie nie ma modeli, które mogłyby zrobić to, czego potrzebujemy, więc łączymy Ludwig i Pipeline, aby stworzyć potężny automatyczny tytuł i Meta Opis dla każdej strony w witrynie.

Jak używamy Ludwiga do precyzyjnego dostrojenia T5?

To ważne pytanie, ponieważ staramy się pokazać naszym klientom dokładnie, co dzieje się w tle ich strony internetowej. Wokół tego stereotypu mówi się, że „używanie Ludwiga do treningu T5 jest tak proste, że powinniśmy rozważyć uczynienie go nielegalnym”. Prawda jest taka, że ​​obciążalibyśmy naszych klientów znacznie wyższymi opłatami, gdybyśmy musieli zatrudnić inżyniera sztucznej inteligencji do wykonania odpowiednika.

Tutaj dowiesz się, jak dostrajamy T5.
  • Krok 1: otwórz nowy notatnik Google Colab. Następnie zmieniamy Runtime, aby korzystał z GPU.
  • Pobieramy zestaw danych Hootsuite, który został już zebrany.
  • Następnie instalujemy Ludwig.
  • Po instalacji ładujemy zbiór danych treningowych do ramki danych pandy i sprawdzamy, jak wygląda.
  • Następnie stajemy przed najważniejszą przeszkodą, jaką jest stworzenie odpowiedniego pliku konfiguracyjnego.
Zbudowanie idealnego systemu wymaga dokumentacji dla T5 i ciągłych prób i błędów, dopóki nie zrobimy tego dobrze. (przeszłoby długą drogę, gdybyś znalazł tutaj kod Pythona do wygenerowania).

Przejrzyj słowniki funkcji wejściowych i wyjściowych i upewnij się, że ustawienia zostały prawidłowo wybrane. Jeśli zrobisz to dobrze, Ludwig zacznie używać „t5-small” jako modelu do biegania. W przypadku większych modeli T5 łatwiej jest zmienić centrum modelu i potencjalnie ulepszyć jego generację.

Po kilkugodzinnym treningu modelu zaczynamy uzyskiwać imponującą dokładność walidacji.

Ważne jest, aby pamiętać, że Ludwig automatycznie wybiera inne kluczowe pomiary generowania tekstu, głównie zakłopotanie i edycję odległości. Są to niskie liczby, które pasują do nas.

Jak wykorzystujemy nasze wyszkolone modele do optymalizacji tytułów

Testowanie naszych modeli to naprawdę interesująca część.

Najpierw pobieramy testowy zestaw danych z niezoptymalizowanymi tytułami Hootsuite, które pozostały niewidoczne dla modelu podczas treningu. Będziesz mógł wyświetlić podgląd zbioru danych za pomocą tego polecenia:

!głowa

Hootsuite_titles_to_optimize.csv

To bardzo imponujące, że Ludwig i T5 mogą zrobić tak wiele z każdym małym zestawem treningowym i nie wymagają zaawansowanego strojenia hiperparametrów. Właściwy test sprowadza się do tego, jak współdziała z naszymi docelowymi słowami kluczowymi. Jak dobrze się łączy?

Tworzenie aplikacji do optymalizacji tagów tytułów za pomocą Streamlight

Twórcy treści uważają tę aplikację za najbardziej przydatną. Czy nie byłoby wspaniale mieć prostą w obsłudze aplikację, która nie wymaga dużej wiedzy technicznej? Cóż, właśnie po to jest tutaj Streamlight.

Jego instalacja i użytkowanie są dość proste. Możesz go zainstalować za pomocą:

! pip install streamline

Stworzyliśmy aplikację, która wykorzystuje ten model. W razie potrzeby możemy go uruchomić z tego samego miejsca, w którym trenujemy model, lub możemy pobrać już wyuczony model do miejsca, w którym planujemy uruchomić skrypt. Przygotowaliśmy również plik CSV z tytułami i słowami kluczowymi, które mamy nadzieję zoptymalizować.

Teraz uruchamiamy aplikację. Aby uruchomić model, musimy podać ścieżkę do pliku CSV, który zawiera tytuły i słowa kluczowe, które mamy nadzieję zoptymalizować. Nazwy kolumn CSV muszą pasować do nazw podczas szkolenia Ludwiga. Jeśli model nie zoptymalizuje wszystkich tytułów, nie panikuj; uzyskanie przyzwoitej liczby to również wielki krok naprzód.

Jako eksperci w Pythonie, pracujemy z tym bardzo podekscytowani, ponieważ zwykle powoduje to pompowanie naszej krwi.

Jak utworzyć niestandardowy zbiór danych do szkolenia

Korzystając z tytułów Hootsuite, możemy trenować modele, które będą dobrze działać dla naszych klientów, ale mogą być domyślne dla konkurencji. Dlatego zapewniamy, że tworzymy własny zestaw danych i oto jak to robimy.
  • Wykorzystujemy własne dane z Google Search Console lub Bing Webmaster Tools.
  • Alternatywnie możemy również pobrać dane konkurencji naszego klienta z SEMrush, Moz, Ahrefs itp.
  • Następnie piszemy skrypt dla tagów tytułów, a następnie dzielimy tytuły, które mają i nie mają docelowego słowa kluczowego.
  • Bierzemy tytuły, które zostały zoptymalizowane za pomocą słów kluczowych i zastępujemy słowa kluczowe synonimami lub używamy innych metod, aby tytuł był „deoptymalizowany”.

Wniosek

Semalt jest tutaj, aby pomóc Ci automatycznie zoptymalizować tagi tytułowe, a także opisy meta. W ten sposób możesz pozostać na czele w SERP. Analiza strony internetowej nigdy nie jest łatwym zadaniem. Dlatego właśnie szkolenie maszyny, która pomoże nam to zrobić, nie tylko obniża koszty, ale także oszczędza czas.

W Semalt są profesjonaliści, którzy skonfigurują Twój zestaw danych, Ludwig i T5, abyś zawsze mógł wygrywać.

Zadzwoń do nas dzisiaj.

mass gmail