Rem tene, verba sequentur.
Marcus Porcius Cato
Marcus Porcius Cato
Konzentriere Dich auf die Sache –
die richtigen Worte werden folgen…
Semantische Suchmaschinenoptimierung
die richtigen Worte werden folgen…
Technische Aspekte wie sauberer, ballastfreier Programmcode, übersichtliche Seitenstruktur, Mobilgerätetauglichkeit, intakte Linkstruktur, Sicherheit durch HTTPS oder performante Ladezeiten sind nach wie vor grundlegend. Dies sind jedoch in der Regel Faktoren, die jedem Programmierer bekannt sind schon bei Programmierung einer Webseite berücksichtigt werden (sollten).
Um heute eine Webseite zu optimieren, ist es notwendig, sich das erklärte Ziel von Suchmaschinen mit selbstlernenden KI-Algorithmen vor Augen zu halten. Dieses Ziel besteht darin, die semantische Bedeutung von Webinhalten ähnlich zu verstehen wie ein Mensch. KI-Algorithmen und -Prozeduren wie RankBrain von GOOGLE sind auf dem Weg dorthin und kommen ihrem Ziel immer näher.
Dies ist der Grund, warum neben den konventionellen Keywords wortschatzreiche Synonyme, umformulierte Varianten, semantisch verwandte Begriffe, Kollokationen (Wörter, die häufig zusammen in einem Text auftreten) und Assoziationen immer wichtiger werden. Selbstlernende KI-Algorithmen sind heute in der Lage, die Bedeutungsbeziehungen zwischen den Wörtern eines Textes und den Relationen zu Wörtern in anderen indizierten Webbeständen zu analysieren. Damit schafft diese moderne Technologie die Voraussetzungen dafür, dass viele Wege auf eine Webseite führen können. Wir haben es hier also zu einem großen Teil immer mehr mit der linguistischen Semantik indizierter Webseiteninhalte zu tun.
Ein „königlicher“ Content, attraktive Metadaten (Snippets, Rich Snippets), Schema-Markup-Auszeichnungen und themenadäquate Backlinks ergeben im Verbund mit gezielten semantischen Optimierungen eine Fundgrube für Suchmaschinen.
Grundlegend für die Analyse von Suchanfragen sind die semantischen Beziehungen der Wörter in einem Satz und die Beziehungen der Sätze zueinander. Gerade das nach Hummingbird (2013) und RankBrain (2015) neueste und sehr folgenreiche semantische Rollout von Google im Oktober 2019 „Bidirectional Encoder Representations from Transformers“ (BERT) macht dies sehr deutlich.
Dank des linguistischen BERT-Frameworks ist der Google-Algorithmus – zunächst für den englischen Sprachraum – immer besser in der Lage, die Semantik eines Satzes u. a. durch die genauere Deutung von Präpositionen, Pronomen und Mehrdeutigkeiten besser zu verstehen und damit die betreffende Suchanfrage auch besser zu bedienen.
Das neuronale, selbstlernende BERT-Framework arbeitet dabei auf Basis von Transformatoren, kontextuellen Darstellungen von Wörtern in einem Satz und es arbeitet bidirektional. D. h., Wörter in einem Satz können ihre Nachbarn links und rechts richtig deuten [Beispiel: Frau Huber stampfte in die Spielhölle; sie war lauter als eine Elefantenherde: Bezieht sich das Pronomen „sie“ auf Frau Huber oder auf die Spielhölle?].
Doch BERT bleibt nicht bei Wörtern stehen, sondern analysiert auch die Beziehungen zwischen zwei aufeinanderfolgenden Sätzen: Ist Satz 2 auch wirklich ein Satz, der logisch nach Satz A kommt oder ist er im Satzkontext ohne Bedeutung und rein zufällig?
Selbstlernende KI-Algorithmen haben die reine Textstringebene verlassen und bewegen sich heute mithilfe mehrdimensionaler mathematischer Vektoren als Repräsentationen von Wörtern an bestimmten Textstellen, Wahrscheinlichkeitsverteilungen, konvolutionalen neuronalen Netzen sowie den Techniken der Mustererkennung immer sicherer in unseren komplexen semantischen Welten. Dies gilt auch oder gerade für die rasant ansteigenden Suchanfragen mittels Smartphone und natürlicher Spracheingabe.
Es geht nicht mehr nur um Worte, sondern um Inhalte, Ideen, Absichten, Meinungen, also um Bedeutungsinhalte oder anders gewendet um die Semantik natürlicher Sprachen.
Bei diesen Prozessen werden immer immense Datenmengen auf Muster hin analysiert. So werden bei der Analyse von Smartphone-Spracheingaben zigtausende Audiodateien in die Forschungszentren der Suchmaschinenhersteller hochgeladen, von Hand in Texte transkribiert, die Wellenmuster analysiert, miteinander verglichen, spracherkenntlich getestet und die zugrundeliegenden neuronalen Netze trainiert und optimiert.