registrieren registriertes Mitglied


Anzeige

Anzeige

Suchmaschinen (und Seo) aus Programmierersicht

Alles zu Domain-Umzug, Weiterleitungen und Robots diskutiert Ihr hier.
ABSimon
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 14.01.2014, 19:21

Beitrag ABSimon » 14.01.2014, 19:27 Suchmaschinen (und Seo) aus Programmierersicht

Hallo,

ich bin Internetprogrammier (~10 Jahren) und habe bislang das Thema Seo etwas gescheut.
Gerne möchte ich aber einmal das Thema aus Sicht eines Suchmaschinen-Programmierers beleuchten und
das ganze System - für mich - nachvollziehbar machen. Würde ich eine Suchmaschine (Google) programmieren :),
kämen mir folgende Ideen:

- Keywords. Ich lade den Quelltext von einer Webseite und extrahiere alle Links und den gesamten Text.
Aus dem Text lösche ich alle unwichtigen Wörter (der, die, das, und ...) und übrig bleiben
mehr oder minder aussagekräftige Reste. Nun suche ich nach Wiederholungen, um vielleicht
in Erfahrung zu bringen, welche Wörter wichtiger sind oder nicht. Das ist aber nicht
so einfach, deshalb muß ich wohl auch noch schauen, - wo - die jeweiligen Wörter in der Website standen.
Als Chrome Entwickler kann ich vermutlich eine Website graphisch analysieren (CSS, denn bei
weitem nicht alle nutzen sauber die H1-H5 Tags), teile die Website in ein Raster 10x10px,
links oben bekommen die Rasterfelder den höchsten Werte (z.B. 10,0), im unteren Bereich der Seite dann den niedrigsten Wert (1,0)
und je nach Größe und Position der Keywords berechne ich dann eine Wichtigkeit. Weicht die Häufigkeit
von Keywords gegenüber von Standardtexten (z.B. Wikipedia) ab, ignoriere ich die Häufigkeit und
beziehe mich lieber auf die grafische Darstellung (da kann man wohl weniger irren). Den Text
um die Top-Keywords schneide ich aus, um diesen Text später in meiner Suchanzeige anschaulich verwenden zu können.
Wichtig ist auch Linktext, dem zur Website gefolgt wurde. Dieser, oder der umgebende Text vom
Link (falls jemand die Links "weiter" / "mehr" benutzt) sollte nach Möglichkeit mit den
Keywords überein stimmen, weil niemand schreibt "<link>Hier</link> gibts Theaterkarten"
und linkt dann auf einen "LED Shop". "Theaterkarten" müßte also wichtig, wenn das
nochmal im Fließtext vorkommt, würde ich das sehr hoch werten. Noch mehr gilt das für den
Titel eine Seite, niemand schreibt "Theaterkarten" auf einen "LED Shop". Anhand der Suchanfragen
bei Google (und bereits "bewährten" Suchergebnissen, siehe "Praxis")
steht mir auch eine große Liste von "Verwandten Keywords" oder ähnlichen Kombinationen zur Verfügung. Wenn also verwandte
Keywords auftauchen, z.B. "Bahnhof" und "Bahnkarte", bin ich mir sicherer als wenn da nur
"Bahnhof" steht (z.B wenn jemand schreibt "Ich versteh nur Bahnhof"). Gleiches gilt eigentlich auch für die Länge
von Titeln. Wenn jemand hier nur "LED Lampen" schreibt, muß das wohl stimmen. Wenn hier
aber jemand "Alle LED Lampen und Leuchtmittel" schreibt könnte theoretisch auch noch etwas
anderes gemeint sein. Die Suchmaschine besteht aus Nullen und Einsen. Es sind nur zwei von Fünf Worten "richtig", man bedenke "Alle LED
Lampen und andere Leuchtmittel" oder "Alle LED Lampen schaden der Umwelt". Theoretisch ist da Platz für
Fehler und ich durchsuche das ganze Netz. Gibt es auf einer Seite z.B. noch zentrale große
Bild-Banner, kann man auch hier auch versuchen mal die Texte via OCR zu extrahieren, und damit bereits
gefundene Keywords "stärken". Ein eindeutiger Hinweis wären wohl auch eingebundene Youtube
Videos oder ähnliches (Youtube gehört glaub ich auch Google). Wenn hier Videos eingebunden sind, und der Titel vom Video
mit den gefundenen Keywords übereinstimmt, kann ich mir auch ziehmlich sicher sein, das
mein Keyword Ranking der Seite stimmt. Ich bin mir also sicherer, das ich die Seite "verstanden"
habe. Ich führe einen "Vermutlich-Richtig-Verstanden-Index" ein, der alle Keyworder nochmals
gewichtet. Eigentlich müßte dieser Index sinken, wenn ich zu viele Keywords aus unterschiedlicher
Themenfeldern erhalten habe. Es gibt ja auch Mischthemenseiten, Interviews und Lebensläufte,
mit einem Wust von Keywords. Da fehlt die Eindeutigkeit. Top-Ranken würde ich natürlich auch die Domain selbst (led-shop.de),
aber später nicht so stark das osram.de wegfallen könnte.

- Backlinks. Je mehr Links auf eine Seite verweisen, desto wichtige muß die Seite ("LED Shop")
sein. Ok. Nur wichtig wäre natürlich auch, - wer - auf die Seite verlinkt. Links aus Facebook.de
und Pressportal.de dürften weniger wichtig sein (die man selbst schreiben kann, entsprechend viele
wird es geben), als wenn "diezeit.de" / "heute.de" auf "samsung.de/led_beleuchtung" linkt, die man
nicht selbst schreiben kann, und wenn man den Link selbst nicht schreiben kann, bekommt man selten
häufiger als einen Link pro Website, mehr wäre auffällig. Grundsätzlich wird jede Seite auch selbst danach bewertet wieviel
Verlinken diese Seite auf andere Seiten hat, und wie hoch die wiederum gewichtet ist.
Je weniger Links diese Seite hat, desto höherwertiger würde ich diese ansetzen. Guten Linkseiten
sollten die Backlinkdichte von z.B. "diezeit.de" nicht wesentlich überschreiten. Ein Backlink von
"diezeit.de" könnte man z.B. mit 500 Punkten werten, von Pressportal.de nur 5 Punkte. Bei Seiten mit vielen "minderwertigen"
Links sollte ich auch ein Limit einführen, damit man allein mit Spam nicht "Samsung.de" vertreiben
kann. Nur wer eine "gesunde" Mischung, also auch höherwertige Links hat wird relevant höher gestuft.
Sonst wird man wohl zugemüllt. Grundlage einer solchen Bewertung aller Links, ist möglichst alle Verlinkungen
zu kennen (im Netz), und wohl einiges an Erfahrung, wie die übliche Linkstruktur von "guten" Seiten aussieht,
um dann die bösen Jungs zu erkennen.

- Der Umfang einer Website. Stoße ich auf Seiten wie Wikipedia, Conrad, Ebay, Amazon finde ich
eine enorme Datenmenge an nicht dubliziertem Content. Je mehr Seiten da sind, desto wichtiger
muß die Seite eigentlich auch sein. Desto mehr Arbeit hat sich jemand gemacht, desto mehr
potenziellen Nutzen hat die Seite theoretisch für einen User.

- Zur Praxis. Ich habe 1.170.000 (!) Ergebnisse gefunden, die sich mit "led lampe"
beschäftigen. Auf Seite 1 passen aber nur 11 Ergebnisse, neben der ganzen Werbung, den Bildern,
und Google Shopping Ergebnissen. Da eh keiner blättert (es sein denn man findet auf der ersten Seite
nichts, was dem Programmierer eigentlich sagt, hier stimmt was nicht - wenn die Ergebnisse nicht
stimmen wird viel geblättern :)) muß hier stark eingeschränkt werden.
Um nicht ganz falsch zu liegen, mische ich Ergebnis aus Website Umfang, Keywords und Backlinks.
1. www.amazon.de (Enormer Content, in aller Munde, Titel und URL beginnt mit "LED-Lampen")
2. www.leds.de (die Domain ist klasse, Titel und URL beginnt mit "LED-Lampen")
3. www.idealo.de (Enormer Content, bestimmt auch stark verlinkt, Titel beginnt mit "LED-Lampen")
4. www.wikipedia.org/wiki/Leuchtdiode (Enormer Content, höchstes Page Ranking überhaupt)
5. www.ebay.de/bhp/led-lampen (Enormer Content, in aller Munde, Titel und URL mit "LED-Lampen")
6. www.pearl.de/c-5607.shtml (Titel beginnt mit "LED-Lampen")
7. www.osram.de/osram_de/produkte/lampen/led-lampen (starkes Page Ranking, Titel und URL mit "LED-Lampen")
8. www.lampenwelt.de (Teilweis die Domain, Titel gebinnt mit "LED-Lampen")
9. www.philips.de (starkes Page Ranking, Titel und URL mit "LED-Lampen")
10. www.gruenspar.de (Titel und URL mit "LED-Lampen")
Zudem fördere ich noch die Links, die in den Ergebnissen besonders häufig angeklickt werden. Ich führe
bei jedem Keyword einer Seite einen "Erfolgsfaktor" ein, und sortiere die Ergebnisse (auch) nach Klicks in
z.B. den letzten zwei Wochen. Der Zeitabstand muß kurz genug sein, damit die Suchergebnisse aktuell bleiben,
aber auch lang genug damit nur solide Kandidaten vorne bleiben. Zudem www.leds.de, www.pearl.de,
www.lampenwelt.de, www.gruenspar.de nutzen Google Analytics, hier weiß ich wohl auch das es eine besonders
niedriege Abbruchquote und lange Besuchszeiten gibt. Selbst ohne Google Analytics kann ich über die Cookies erkennen,
ob ein User erneut die Suche aufruft, und in welchem Abstand, und werte entsprechend den Erfolgsfaktor
auf oder ab. Bei verkaufsrelevanten Suchwörtern (wo via Adwords gern mal 100.000 EUR pro Monat oder mehr
geschaltet wird), muß ich besonders vorsichtig sein (Zeitabstand und Erfolgskontrolle). Die Plätze sind bares
Geld wert, dafür muß man die Kunden (User) glücklich machen.

- Manuelles Feintunig. Eine Suchmaschine hat extrem viele Parameter, und man braucht eine Art Mischpult
(wie im Tonstudio) um die Suchanzeige bestmöglich einzustellen. Man verändert einen Parameter
(z.B. der Umfang der Website wird stärker gewichtet) und schaut sich dann die wichtigsten Ergebnisse
nochmal an. Alles kann man nicht, aber die Adwords starken Seiten (die teuren, aus denen die Millarden kommen)
würde ich in jeden Falle einmal prüfen. Das Ziel aller Suchmaschinenbetreiber muß es sein, ein maschinelles
Ergebniss zu erstellen, das einem redaktionellen Ergebniss möglichst nahe kommt, aber aktueller und mit
nicht begrenztem Umfang. Inwieweit händisch eingegriffen wird (um z.B. Wikipedia zu stärken) weiß ich nicht, aber
eine solche Möglichkeit wird es für krasse Fälle wohl auch geben (auch wenns keiner zugibt).

Habe ich hier ggf. technische Möglichkeiten übersehen?

Danke & Vg
Simon

Anzeige von: