Mehr erfahren
Mehr 💯 Aufmerksamkeit durch Emojis bei 🔎 Google!
Jetzt 🚀 durchstarten!

Recap: OMK 2018 in Lüneburg

Events  |  Nils Buske  |  , 20:20 Uhr  |  Keine Kommentare

OMK-LogoDie diesjährige OMK bot ein großes Spektrum an digitalem Marketingwissen. Ganz im Stile einer Uni-Vorlesung wurde in der Leuphana-Universität über Themen wie Social-Media, Brand-Marketing, zukünftige Entwicklungen und natürlich auch SEO referiert. Die lüneburger Veranstaltung der web-netz Agentur war gut besucht – und das zu Recht. 

Der Ablauf – Wissensvermittlung am Fließband

Die Vorträge waren vollgepackt mit Informationen. Einige Vorträge waren 30 Minuten lang, andere Vorträge waren 45 Minuten lang, aber fast jeder Vortrag wurde erwartungsgemäß überzogen, was aufgrund der Komplexität der einzelnen Themenblöcke jedoch nicht verwunderlich ist. Viel Input und zu wenig Zeit – das trifft es ganz gut. Zwischen den Vorträgen konnte man sich mit den Sponsoren-Vertretern der OMK oder anderen Teilnehmern austauschen. Alternativ konnte man sich im dichten Gedränge des Uni-Korridors mit Erfrischungsgetränken und Zimtschnecken eindecken, die dem Kopf wieder genügend Power für den nächsten Vortrag gaben. 

Content-Marketing: Content-Arten und Redaktionsplan

Einen grundlegenden Überblick über das Themenfeld Content-Marketing lieferten A. Becker & A. Marquardt.  Es wurden verschiedene Content-Typen wie elementarer Hygiene-Content (Name, Adresse, Zahlarten, …), interesenweckender Hub-Content (Blog-Artikel, News, …) und außergewöhnlicher Hero-Content (Gewinnspiele, Saisonaktionen, …) vorgestellt. Weiterhin empfehlenswert ist es, auf einen Mix verschiedener Content-Formate (Text, Videos, Fallbeispiele, …) zu achten, um im besten Falle das Prädikat High-Performance-Content-Format zu erhalten.

Im Zuge der Content-Distribution in die verschiedenen Kanäle wurde speziell auf die Kommunikation zwischen SEO-Abteilung und Social-Media-Abteilung eingegangen. Social-Media Plattformen können den Traffic der eigenen Webseite steigern. Aus diesem Grund ist es sinnvoll einen auf der eigenen Webseite publizierten Blog-Beitrag auch auf Facebook und Co. zu verbreiten. Ein gemeinsam genutzter Redaktionsplan kann hilfreich sein, um allen Beteiligten (SEO+Social-Media) einen Überblick über die zu behandelnden Themen zu geben und um regelmäßig kanalübergreifend Beiträge on-point zu veröffentlichen.

Synergien zwischen SEO und SEA: Keywordrecherche und Snippet-Abgleich

Bezüglich der Synergien zwischen SEO und SEA kamen A. Marquardt & N. Loges auf eine Gemeinsamkeit, die beiden Disziplinen vorausgeht – die Keywordrecherche. Die Keywordrecherche ist nach der Zielgruppenanalyse ein fundamentaler Schritt für eine erfolgreiche Marketing-Kampagne. Bevor man drauf los schreibt und die Keywords priorisiert, die man vermeintlich für die richtigen hält, sollte man erstmal Folgendes klären: welche Begriffe werden von den Suchenden überhaupt bei Google eingegeben? Hier kann es aus ressourcentechnischen Gründen sinnvoll sein, dass der SEO-Verantwortliche mit dem SEA-Verantwortlichen gemeinsame Arbeit macht. Der Prozess der Recherche kann aufgeteilt bzw. miteinander abgestimmt werden. Das ist effizient und spart Zeit.

Des Weiteren kann es sinnvoll sein, auch das tatsächliche Ad-Snippet mit dem organischen Snippet abzugleichen, um Überschneidungen zu vermeiden. Beispielsweise kann es sinnvoll sein, dass die Ad-Anzeige den Singular (Jagdjacke) fokussiert und stärker auf die Hersteller und das Sortiment (Weste, Parka, …) eingeht, während das organische Snippet den Plural (Jagdjacken) favorisiert und stärker die Eigenschaften (wasserabweisend, atmungsaktiv, …) hervorhebt. Problematisch bei der Keywordrecherche ist jedoch die Auswahl der richtigen Datenquelle – hier kommt es zu teils gravierenden Unterschieden zwischen Google Keyword-Planner, Google Trends oder Ahrefs Search Volume.

OMK Veranstaltung

Crawling-Verhalten: die Wichtigkeit der robots.txt

Anke Probst ging speziell auf das Thema Crawling ein. Am Beispiel der Xing SE erklärte Sie die Wichtigkeit der robots.txt. Die eigene Domain betreffend steuert die Robots.txt das Crawlverhalten der Suchmaschine. Zwar ist auch eine Steuerung über Meta-Tags möglich, diese zielen jedoch nur auf eine spezielle HTML-Datei ab. Die Robots.txt ermöglicht hingegen das komfortable Aussperren ganzer Pfadstrukturen. Eine kleine Zeile Code in einer unscheinbaren txt-Datei kann erhebliche Auswirkungen auf das Crawl-Budget haben. Das gilt vor allem dann, wenn man ein Mitgliederverzeichnis im zweistelligen Millionenbereich führt.

Man sollte dem Googlebot „entgegenkommen“, ihm überflüssige Arbeit ersparenund unnütze Seiten wie den Log-In Bereich der einzelnen User von Xing aussperren. Wenn unnütze Seiten vom Crawlen ausgesperrt werden, hat der Crawler mehr Kapazitäten zur Verfügung, um wichtigere Seiten häufiger zu crawlen bzw. URLs, die tief im Verzeichnispfad „versteckt“ sind, überhaupt erst crawlbar zu machen.

Auch das Stichwort Duplicate Content (DC) ist gefallen. Zwar erwähnte Sie das Faktum der Keyword-Kannibalisierung, also das Konkurrieren verschiedener URLs um bestimmte Keywords, relativierte jedoch die Gefahr von DC ein wenig, da DC normal sei und nicht immer vermeidbar ist.

Vorausblick: Personalisierung in Zukunft immer wichtiger

Norman Nielsen griff verstärkt die zukünftige Entwicklung im Online-Marketing auf – Personalisierung wird immer wichtiger. Vor dem Hintergrund von Mobile First und Sitespeed erwähnte er AMP-Seiten, die im Gegensatz zu nicht-AMP Seiten, eine viel geringere Ladezeit aufweisen. Ebenfalls kam das Stichwort Preloading zur Sprache, eine Webseiten-Technik, die es ermöglicht, auch im Offline-Modus zu surfen. Ein gezwungener Offline-Modus, wie beispielsweise der fehlende Internetempfang bei der Durchquerung eines Tunnels in einem Zug, kann mit dieser Technik kompensiert werden, da die Seiten, die wahrscheinlich als nächstes vom User aufgerufen werden, bereits vorgeladen werden. Dies geschieht auf Basis des individuellen Nutzerverhaltens und ist ein weiterer Schritt in Richtung personalisiertes Interneterlebnis. In diesem Zusammenhang erwähnte er auch die Möglichkeit einer personalisierten Navigation, die ebenfalls auf personalisierten Nutzerdaten beruht und in Zukunft wohl Normalität sein wird. Nach Schuhen suchende Männer bekämen so eine völlig andere Navigation als Frauen – das macht Sinn.

Zusätzlich ging er auf Voice Search ein. Sprachassistenten wie Alexa, Siri und Cortana berufen sich auf Daten von Bing. Hinsichtlich einer Voice Search Fokussierung sollte man sich also auch mit der Suchmaschine Bing auseinandersetzen.

Fazit

Alles im allen war die OMK 2018 eine sehr lehrreiche Konferenz, die einem einen kleinen Einblick in die Arbeit und die Sichtweise anderer gab. Bei so viel versammelter Expertise an einem Ort hat bestimmt jeder die ein oder andere hilfreiche Information mit nach Hause genommen. Ein Besuch dieser Veranstaltung ist auf jeden Fall empfehlenswert.

 

Sie befinden sind hier: Recap: OMK 2018 in Lüneburg



Ihre Agentur noch nicht dabei?


Ihre Agentur noch nicht dabei?