Was ist BERT(Bidirectional Encoder Representations)?

BERT steht für Bidirectional Encoder Representations from Transformers und ist ganz einfach das größte Update, das Google seit der Einführung von RankBrain veröffentlicht hat. Google gibt an, dass sich BERT auf 1 von 10 Suchanfragen auswirken wird und ist – um es einfach auszudrücken – seine auf neuronalen Netzwerken basierende Technik zur Verarbeitung natürlicher Sprache. Noch einfacher ausgedrückt: Google versucht, die Art und Weise zu verbessern, wie seine Maschinen unsere Suchanfragen interpretieren, um uns bessere Ergebnisse zu liefern. Es ist der größte Versuch seit der Einführung von RankBrain, den Nutzer von der Aufgabe zu entlasten, den idealen Suchbegriff einzugeben, und der Suchmaschine die Aufgabe zu übertragen, die richtigen Ergebnisse zu liefern. Mit der Einführung von BERT werden immer mehr Nutzer/innen bemerken, dass ihre Ergebnisse genauer sind und dass Google in der Lage ist, Nuancen und Zusammenhänge von Suchanfragen besser zu verstehen. Dass sich BERT auf 10 % aller Suchanfragen auswirkt, klingt vielleicht nicht nach einer großen Sache, ist es aber, denn in Zukunft werden es immer mehr sein. Schon bald wird BERT höchstwahrscheinlich alle Suchanfragen bei Google betreffen, und leider können SEO-Mitarbeiter/innen nur sehr wenig dagegen tun. In gewisser Weise ist das eine gute Sache: Websites und diejenigen, die gut ranken wollen, können sich jetzt darauf konzentrieren, ihrer Zielgruppe einen echten Mehrwert zu bieten, anstatt sich übermäßig um Schlüsselwörter zu kümmern.

Digitalagentur Mainz – Digitales Marketing mit Erfolg

Aktuelle Blogbeiträge