Buchstabe S

 

Schwarze Liste: Siehe "Blacklist".

Scooter: Früherer Name des Spiders der Suchmaschine Altavista, als diese noch eine eigenständige Suchmaschine war. Seit März 2004 zeigt Altavista die Suchergebnisse von Yahoo und es hat sich endgültig ausgescootert (Randbemerkung: Das gleiche Schicksal hat die Suchmaschine AllTheWeb getroffen).

SE: Abk. "Search Engine", dt. "Suchmaschine".

Search Engine: Siehe dt. "Suchmaschine".

Seite: Abk., siehe "Webseite".

Seitenaustausch: Eine für Suchmaschinen-Spider optimierte Webseite wird bei Suchmaschinen angemeldet. Nach der Indexierung durch die Suchmaschine wird die Webseite gegen eine Webseite ausgetauscht, die für menschliche Besucher optimiert ist. Diese Methode wird von Suchmaschinen als Spam gewertet. Zudem funktioniert sie nur schlecht, da die Spider wichtiger Suchmaschinen häufig und unregelmäßig Webseiten besuchen, und der richtige Austauschzeitpunkt damit unkalkulierbar ist.

Seitentitel: Der Titel einer Webseite. Seinem Inhalt sollte vom Suchmaschinen-Optimierer höchste Aufmerksamkeit gewidmet werden, denn Keywords im Seitentitel werden von Suchmaschinen als sehr relevant gewichtet. Der Seitentitel dient allen Suchmaschinen als erste Textzeile bei Suchmaschinen-Ergebnis-Einträgen.

SEM: Engl. Abk., siehe "Suchmaschinen-Marketing".

Semantische Analyse: Semantik ist ein Teilgebiet der Sprachwissenschaft und befasst sich mit der Strukturierung und Bedeutung von Sprache. Es ist zu erwarten, dass die semantische Analyse von Webseiten bei künftigen Suchmaschinen-Algorithmen eine wachsende Rolle spielen wird - oder möglicherweise bereits spielt. Google hat z.B. im März 2003 das Unternehmen Applied Semantics gekauft, das sich darauf spezialisiert hat, Inhalte von Webseiten semantisch zu analysieren, um die geeignete Werbung auf den entsprechenden Seiten einzublenden. Auf genau diesen Fähigkeiten basiert das Werbeprogramm "Adsense", mit dem Google seit 2003 seine "Adwords"-Anzeigen in Abhängigkeit von Textinhalten in Webseiten von Partnern einblendet. Es wäre ein konsequenter Schritt, wenn Google die Möglichkeiten der semantische Analyse auch für seine normalen Suchergebnisse nutzen würde, um z.B. das Thema von Webseiten oder die inhaltliche Verwandschaft von verlinkten Webseiten zu ermitteln. Auf diese Weise wären neue Möglichkeiten für die Ermittlung der Relevanz von Webseiten sowie der Spam-Erkennung gegeben.

SEO: Engl. Abk. von "Search Engine Optimizer" bzw. "Search Engine Optimization", dt. Abk. "SMO". Siehe "Suchmaschinenoptimierung".

SERP: Engl. Abk. von "Search Engine Results Page", dt. "Suchmaschinen-Ergebnisseite". Webseite in einer Suchmaschine, die die Ergebnisse einer Suchanfrage auflistet.

SERPS Pollution: Abk. von "Search Engine Results Pages Pollution", dt. "Verschmutzung der Ergebnisseiten von Suchmaschinen". Bezeichnet im Englischen umgangssprachlich das auch hierzulande bestens bekannte Phänomen, dass Ergebnisseiten von Suchmaschinen zahlreiche Webseiten auflisten, die im Allgemeinen als "False Drops" (siehe ebd.) oder treffender - als irrelevanter Müll - zu bezeichnen sind. Hierzu zählen aggressive Formen von Doorway-Pages, Linklisten, Affiliate-Seiten und dergleichen, die sich durch Inhaltsleere auszeichnen und vom Suchmaschinen-Nutzer regelmäßig als Zeitverschwendung oder Manipulationsversuch betrachtet werden. Wie immer, sind auch hier die Grenzen fliessend.

Server: Zentraler Rechner, der Informationen bereitstellt, z.B. Webserver oder Datenbank-Server. Programme, die Information von Servern abrufen, werden zum Client des Servers. Suchmaschinen-Spider sind Clients, die Information von Webservern abrufen, um sie einem eigenen Server (Datenbank-Server der Suchmaschine) zur Bearbeitung zu geben.

Server Side Includes: Abk. "SSI". Webserver-Erweiterung, die es erlaubt, Webseiten dynamisch zu generieren bzw. zu modifizieren. Vor Auslieferung einer Webseite an einen Browser-Client werden darin enthaltene Befehle ausgeführt. So können z.B. der Inhalt einer externen Datei oder die Daten eines vor Auslieferung der Webseite aufgerufenen Programms in den Quellcode einer ausgelieferten Webseite übernommen werden. Im Rahmen der Suchmaschinenoptimierung erlaubt SSI eine Reihe interessanter Anwendungen.

Session ID: Wert, der einen Nutzer(-vorgang) gegenüber dem Web-Server jeweils eindeutig identifiziert. Die Session ID kann z.B. über Cookies oder als Bestandteil der URL an ein Folgeskript übergeben werden, damit dieses die Sessiondaten auf dem Server wiederfinden kann. Session IDs setzen eine serverseitige Skript-Sprache wie z.B. PHP voraus.

Session Length: Verweildauer eines Besuchers auf einer Website.

Site: Abk., siehe "Website".

Sitelinks: Bei der Betrachtung von Suchergebnisseiten in Google zu einem populären Suchbegriff tauchen manchmal unterhalb des ersten Eintrags weitere Links in die innere Struktur des Erstplatzierten auf. Diese zusätzlich angezeigten Links nennt Google selbst "Sitelinks". Man versuche zu Veranschaulichung in Google eine Suche nach "Rezepte". Sitelinks werden von Google automatisch ermittelt und sollen dem Suchenden helfen, direkt die gewünschten Inhalte in einer populären Website zu finden.

Sitemap: Webseite innerhalb einer Website, die über Links die Navigationsstruktur der Website abbildet.

Slow Death: Dt. "Langsamer Tod". Bezeichnet das langsame Verschwinden der Seiten einer Website aus den Ergebnisseiten von Suchmaschinen. Bei der Suchmaschine Google beginnt dieser Prozess damit, dass in den Ergebnisseiten mehr und mehr Seiten einer Website nur noch als URL und ohne jegliche Beschreibung dargestellt werden. Der Slow Death endet dann mit dem vollständigen Verschwinden einer Website aus dem Index der Suchmaschine. Eine häufigste Ursache dieses Phänomens scheint die Verwendung von Duplicated Content auf einer Website zu sein.

Slurp: (Ehemaliger) Name des Spiders von Inktomi. Da Yahoo den Suchmaschinen-Betreiber Inktomi in 2003 gekauft hat, wurde der Spider im Februar 2004 in "Yahoo! Slurp" umbenannt. Dieser Spider bildet offenbar die Grundlage für die neue Suchmaschine von Yahoo.

SMO: Abk., siehe "Suchmaschinenoptimierung", engl. Abk. "SEO".

Spam: Auch "Spamdexing". Im Zusammenhang mit Suchmaschinenoptimierung werden unter diesem Begriff alle Maßnahmen zusammengefaßt, die dazu dienen, unter Verletzung der Richtlinien von Suchmaschinen ein besseres Suchmaschinen-Ranking zu erzielen. Die Definition von Spam kann sich von Suchmaschine zu Suchmaschine unterscheiden. Wird Spam identifiziert, kann es zu einer Abstrafung durch die Suchmaschine kommen. Die Bestrafung reicht von Abwertungen im Ranking über das Delisting einer Domain bis hin zur Sperrung ganzer IP-Adressen. Die Strafen können sowohl befristet sein oder dauerhaft und irreversibel. Die Identifikation von Spam kann automatisch erfolgen, durch Mitarbeiter des Suchmaschinen-Betreibers oder auch durch Anschwärzen seitens anderer Internet-Nutzer. Ein hervorragende Klassifizierung der verschiedenen Maßnahmen des Suchmaschinen-Spam findet sich in der lesenswerten Abhandlung zweier Stanford-Studenten vom März 2004 (Titel: ' Web Spam Taxonomy', PDF-Format, Englisch).

Spam-Bots: Spider, die das Internet nach Daten durchforsten, in der Absicht, diese für Spam-Zwecke zu nutzen. Hierzu zählen z.B. automatisierte Skripte, die Webseiten nach E-Mail-Adressen absuchen, um sie in Verteilerlisten für Spam-E-Mails aufzunehmen. Andere Spam-Bots suchen nach Gästebüchern, um dort einen standardisierten Text und einen Link zu hinterlassen, um so die Link-Popularity des Urhebers des Spam-Bots zu verbessern (siehe auch "Gästebuch-Spam").

Spam-Report: Da Spam die Qualität von Suchergebnissen beeinträchtigt, bieten viele Suchmaschinen an, Websites zu melden, die Spam-Maßnahmen verwenden. Ein solcher "Spam-Report" besteht in der Regel aus einem Kontaktformular, in dem um nähere Informationen zum mutmaßlichen Spam-Fall gebeten wird. Wie in Foren immer wieder zu lesen ist, führt bei Google ein Spam-Report offenbar nur in extrem schweren Fällen überhaupt zu einer entsprechenden Reaktion. Google versteht sich in erster Linie als Technologie-Unternehmen, weswegen man versucht, Spam durch technologischen Fortschritt zu lösen, statt durch fallweise Eingriffe.

Spamdexing: Siehe "Spam".

Spider: Auch "Robot", "Bot" "Crawler". Bezeichnet Programme, die sich kontinuierlich durch das Internet bewegen, die Inhalte von Webseiten einlesen und für die spätere Indexierung durch Suchmaschinen erfassen. Die Adressen der Webseiten wurden zuvor entweder bei den Suchmaschinen angemeldet oder der Spider folgt eigenständig Links und besucht dabei neue Seiten.

Splash Page: Homepage einer Website, die sich dadurch auszeichnet, dass sie nur Grafik oder animierte Effekte beinhaltet. Ein gutes Beispiel sind die früher sehr beliebten Introseiten mit Flash-Animationen. Im Einzelfall können Splash Pages die Indexierung in Suchmaschinen sogar verhindern, wenn z.B. der einzige Link zu den anderen Webseiten auf Basis von JavaScript realisiert wurde und Spider diesem Link nicht folgen.

Sponsored Listing: Engl., auch "Sponsored Links". Platzierung eines Eintrags in der Ergebnisseite einer Suchmaschine gegen Bezahlung. Die Bezahlung erfolgt zumeist im Auktionierungsverfahren in Form eines "Pay per Click"-Modells. Sponsored Listings gibt es mittlerweile bei fast allen Suchmaschinen. Die wichtigsten Vermarkter sind Overture, Espotting und Google.

Spoofing: Bezeichnet in der Regel das Einfügen einer falschen IP-Absenderadresse in die Kommunikation mit einem Server. Man gibt sich gewissermassen als jemand anderer aus, als man ist (IP-Spoofing). Spoofing kann von Suchmaschinen-Betreibern verwendet werden, um Spam-Webseiten zu enttarnen, die Cloaking-Maßnahmen einsetzen. Eine andere Variante ist das DNS-Spoofing. Hierbei eignet man sich den DNS eines anderen Servers an. Durch diese Manipulation können Internet-Adressen auf einen anderen Server geleitet werden.

SSI: Abk., siehe "Server Side Includes".

SSL: Abk. von "Secure Sockets Layer". Spezifikation zur verschlüsselten Übertragung von Information zwischen Browser und Webserver.

Stemming: Dt. "Bildung von Wortstämmen". Bezeichnet die Reduzierung eines Wortes auf seinen Wortstamm. Stemming wird von fortschrittlichen Suchdiensten genutzt, um die Zahl gefundener Suchergebnisse zu maximieren und den Recall zu verbessern. Stemming ermöglicht z.B., dass das Wort "Optimierung" auch dann gefunden wird, wenn jemand "Suchmaschinenoptimierung" oder "optimieren" in die Suchmaschine eingibt. Seit Anfang 2004 kommt auch im deutschsprachigen Teil Googles Stemming zum Einsatz.

Stop Word: Dt. "Stop-Wort". Worte ohne eigentlichen Informationsgehalt und/oder extrem großer Häufigkeit im Sprachgebrauch wie z.B. "der, die, das, ein, und, oder" usw. Stop-Worte werden von den meisten Suchmaschinen im Rahmen normaler Suchprozesse ignoriert. Zu diesem Zweck pflegen Suchmaschinen entsprechende Stop-Wort-Listen, die bei Bedarf erweitert werden. So ist z.B. "www" bei Google ein Stop-Wort. Nach Stop-Worten kann gesucht werden, wenn man die Phrasen-Suche verwendet (bei Google wird hierfür der Suchstring in Anführungszeichen gesetzt).

Subdomain: Alternative Bezeichnung für Third-Level-Domains, wie z.B. "adwords.google.de". Siehe "Domain".

Submission: Siehe dt. "Suchmaschinen-Anmeldung".

Submission Service: Siehe dt. "Eintragsservice ".

Suchbegriff: Siehe "Keyword".

Suchmaschine: Engl. "Search Engine". Suchdienst, der es Internet-Nutzern ermöglicht, anhand von Keywords Webseiten zu finden, die diese Keywords enthalten. Suchmaschinen spidern die Inhalte von Webseiten, erfassen dieser Inhalte in Datenbanken und ermöglichen über Suchanfragen den Zugriff auf die indexierten Daten. Neben Verzeichnissen sind Suchmaschinen das zentrale Navigationsinstrument für das Internet. Suchmaschinen bestehen üblicherweise aus folgenden Komponenten: Spider: Ein Spider (auch "Crawler" oder "Robot" genannt) bewegt sich durch das Verfolgen von Links selbständig durch den Datenbestand des Internets. Merkmalsextraktor: Extrahiert relevante Merkmale und Texte aus den gefundenen Webseiten. Durch die Merkmalsextraktion wird die Datenmenge bereits deutlich verkleinert. Indexierer: Verwaltet die extrahierten Merkmale und Texte der Dokumente und erlaubt den schnellen Zugriff über diese Merkmale und Texte. Sortierer: Ordnet die Dokumente gemäß ihrer Relevanz in Bezug auf eine Suchanfrage. Hierbei kommen spezielle Algorithmen zum Einsatz. User-Interface: Ermöglicht das Formulieren einer Suchanfrage und die Präsentation der Suchergebnisse in geordneter Form [Quelle: Unterlagen einer Multimedia Retrival-Vorlesung an der ETH Zürich].

Suchmaschinen-Anmeldung: Anmeldung von Webseiten über ein entsprechendes Formular bei Suchmaschinen. Ziel der Anmeldung ist es, in den Datenbestand der Suchmaschine aufgenommen zu werden. Kann manuell oder mittels automatisierter Tools erfolgen. Zwischen Anmeldung und Aufnahme in den Datenbestand können Monate vergehen. Eine Anmeldung ist bei leistungsfähigen Suchmaschinen überflüssig, wenn eine Webseite durch vorhandene Backlinks bei einem künftigen Spider-Prozess der Suchmaschine ohnehin gefunden wird. Leider gibt es nicht viele leistungsfähige Suchmaschinen.

Suchmaschinen-Eintragung: Siehe "Suchmaschinen-Anmeldung".

Suchmaschinen-Marketing: Umfasst alle Maßnahmen, die darauf anzielen, die Funktion von Suchmaschinen zum Zweck der Kundengewinnung zu nutzen. Suchmaschinenoptimierung ist ebenso Teil des Suchmaschinen-Marketing wie auch die kostenpflichtige Platzierung von Einträgen in den Suchergebnissen (siehe z.B. Paid Placement).

Suchmaschinen-Optimierung: Engl. "Search Engine Optimization", Abk. "SEO". Alle Maßnamen, die darauf abzielen, durch Erfüllung der Relevanz-Kriterien von Suchmaschinen für eine Webseite in den Suchmaschinen-Ergebnisseiten eine höhere Position zu erzielen. Suchmaschinenoptimierung umfasst einerseits Maßnahmen der "On the Page-Optimierung", wie z.B. Änderungen an der Struktur oder den Inhalten von Webseiten, andererseits Maßnahmen der "Off the Page-Optimierung", wie z.B. die aktive Gewinnung von Backlinks zur Verbesserung der Link Popularity einer Webseite.

Suchmaschinen-Promotion: Siehe "Suchmaschinen-Marketing".

Suchstring: Eingabe in die Suchmaske einer Suchmaschine inklusive aller Wörter, Wortkombinationen und Verknüpfungen (Boolsche Operatoren).

Syntax: Dt. "Schreibweise". Im Zusammenhang mit Suchmaschinenoptimierung sind Regeln für die Schreibweise von Eingaben in die Suchmaske von Suchmaschinen gemeint. Jede Suchmaschine hat ihre eigene Syntax für die Verknüpfung von Suchbegriffen (siehe auch "Suchstring").

 

R

T

 

A B C D
E F G H
I J K L
M N O P
Q R S T
U V W X
Y Z