Google PENGUIN-Update

von | 27.Sep 2016 | 0 Kommentare

Zahlreiche Websites konnten dank des Penguin-Updates 4.0 deutlich an SEO Visibility gewinnen. Die Integration von Penguin in den Kernalgorithmus wird sich langfristig besonders aus negative SEO und Link-Bewertungen sowie auf Backlink-Audits auswirken. Seit 2012 sorgt das Penguin-Update bei Webmastern immer wieder für Aufsehen. Immer wieder wurden Websites aufgrund von Linkspam durch Penguin angestraft. Es konnt einige Zeit in Anspruch nehmen, bis sich die Website von dieser Abstrafung wieder erholt hat. Einigen Domains gelang die Erholung mittels Änderung der Linkstruktur recht zeitnah, zahlreiche Domains mussten jedoch ebenso mehr als 3 Jahre Penalty in Kauf nehmen – bis zum aktuellen Penguin-Update.

Als Teil des Kernalgorithmus der Suchmaschine, werden Penguin-Daten in Bezug auf Links beim Crawlen des Google-Bots in Echtzeit aktualisiert. So sollen zukünftig beim Crawlen „Spamsignale“ auffallen. Neben Links kann dies ebenso Cloaking oder Keyword-Stuffing betreffen. Google fasst also Signale aus anderen Update-Paradigmen (z.B. Panda) zusammen.

Mittlerweile sind nun also die wichtigsten Elemente in den Kernalgorithmus integriert, mit deren Hilfe Google Websites evaluiert und gleichzeitig in Echtzeit bewertet. Zunächst sorgten Hummingbird und RankBrain für ein Echtzeit-Verständnis von Suchanfragen. Die Integration von Panda und Penguin in den Kernalgorithmus, dessen Basis auf datengetriebenem Machine Learning beruht, soll nun zu noch präziseren Ergebnissen führen. Dies geschieht besonders im Hinblick auf Googles wichtigsten Forschungsschwerpunkt, der Entwicklung im Bereich der Künstlichen Intelligenz.

Eine der bedeutendsten Neuerungen ist, dass Penguin 4.0 nicht mehr domainweit, sondern URL-basiert arbeitet. Wer nun also seine Backlink-Struktur aufgeräumt hat, hat einen deutlichen Boost erfahren können. Selbst Websites, die ihre Struktur nicht bereinigt haben, konnten profitieren. Denn Veränderungen betreffen nun nicht mehr die komplette Seite, sondern nur die einzelne URL.

Vor dem Rollout des Penguin-Updates 4.0 hatte die Crawling-Aktivität von Google-Bots enorm zugelegt. Google hat zunächst scheinbar eine Bestandsaufnahme der bestehenden Seiten- und Linkstrukturen vorgenommen. Ein mögliches Vorgehen zur Validierung des kommenden Updates.

Der Theorie zur Folge werden in Zukunft unsaubere Links nach Entdeckung durch den Google-Bot disawowed. Wie schon erwähnt betrifft dies nur die jeweilige einzelne URL und wird nicht wie bei früheren Penguin-Updates die gesamte Domain.

Gleichzeitig bedeutet dies jedoch auch, dass es schwieriger wird, den Abfall der Visibility auf Backlinks zurückzuführen. Ein Backlink-Audit wird schwieriger. Wenn eine URL etwa Ranking-Verlust erleidet, liegt eine Optimierung der Landingpage im Hinblick auf Struktur, Content und Nutzerintention nahe. Wenn durch diese Massnahmen keine Verbesserungen erzielt werden können, besteht die Möglichkeit, dass es am Backlinkprofil liegt. In jedem Fall wird es weniger „Negative-SEO“ geben. Es wird nicht mehr möglich sein viele schlechte Links auf Websites der Konkurrenz zu setzen. Mit diesem Update ändert sich also auch der taktische Aufbau einer Backlink-Struktur. Kontinuität im Backlink-Aufbau, relevanter und einzigartiger Content, Nutzer-Usability werden durch Google langfristig mit guter Platzierung belohnt.