Suchmaschinen

Einleitung

Wenn es um das Suchen und Finden von Informationen im Internet geht, denken die meisten Menschen zuerst einmal an Google. So hat das Verb „googeln“ 2004 auch den Einzug in den Duden geschafft und wird mittlerweile synonym dazu benutzt, Informationen im Internet zu recherchieren. Und das verwundert nicht, wenn man bedenkt, dass Google mit riesigem Abstand nicht nur in Deutschland, sondern auch weltweit die meistgenutzte Suchmaschine ist.

Nichtsdestotrotz ist Google nicht die einzige und vor allem nicht unbedingt die beste Möglichkeit, um nach Informationen im Internet zu suchen. Abhängig davon, welche Art von Informationen man im Internet finden möchte, bieten sich verschiedene Möglichkeiten an, die alle ihre Vor- und Nachteile haben. Deshalb sollte man sich vor der Recherche klarmachen, was man genau sucht und womit man dieses Ziel am besten erreichen kann.

Anforderungen

Usability

Die drei Komponenten von Usability

Im Allgemeinen sollten verschiedenste Suchmaschinen zumindest die folgenden Anforderungen erfüllen, um Usability zu gewährleisten, das heißt um effizient, effektiv und zufriedenstellend benutzt werden zu können.
Zunächst ist auf der Startseite ein minimalistisches Interface von Vorteil, bei dem das Eingabefeld und der Suchknopf im Vordergrund stehen, um eine schnelle Suche zu ermöglichen. Nichtsdestotrotz sollte es auch eine erweiterte Suchfunktion geben, mit der die Benutzer ihre Suche bei Bedarf präzisieren können, um passendere Suchergebnisse zu erzielen.
Bei der Eingabe von Suchbegriffen ist Fehlertoleranz wünschenswert, damit ein Tippfehler keine Misserfolge nach sich zieht. Außerdem erleichtern und beschleunigen Suchvorschläge die Auswahl guter Suchbegriffe.
Die Präsentation der Ergebnisse sollte übersichtlich und mit wichtigen Informationen angereichert sein (z.B. Titel, Ausschnitt aus dem Text, URL). Dabei darf die Ladezeit nicht zu lang sein und die Anzahl an Ergebnissen sollte ausgewogen sein. Wenn sie zu hoch ist, findet der Benutzer die gesuchte Information eventuell nicht. Und wenn sie zu gering ist, fehlt das Gesuchte möglicherweise. Sehr wichtig ist dabei natürlich die Relevanz der Treffer und auch die Qualität der Information. Wie diese Aspekte der Gebrauchstauglichkeit realisiert werden und worauf wir bei der erfolgreichen Nutzung von Suchmaschinen achten müssen, wird im folgenden Beitrag genauer erläutert.

Arten von Suchdiensten

ArtenSE

Je nachdem, welche Art von Information wir finden möchten, bieten sich unterschiedliche Arten von Suchdiensten an. Eine Suchmaschine, wie z.B. Google oder Bing, ist im Grunde ein mathematischer Algorithmus zur Relevanz-Bewertung von Webseiten. Sie eignen sich vor allem dazu, wenn man aktuelle Informationen oder Fakten finden möchte. Dabei durchsuchen sie einen riesigen Datenbestand und ermöglichen die Suche im Volltext, können aber nicht alle Informationen entdecken. Wieso das so ist, erfahrt ihr im Abschnitt „Funktionsweise – aus Algorithmen werden Antworten“.

Spezialsuchmaschinen

03archiveDaneben gibt es Spezialsuchmaschinen, welche im Prinzip das selbe sind wie normale Suchmaschinen. Von ihnen sind aber nur ganz bestimmte Arten von Inhalten auffindbar (z.B. Bilder, Nachrichten, Publikationen, …). Diese sind dann meist vollständiger erfasst, wodurch die Suchergebnisse eine höhere Relevanz haben als in allgemeinen Suchmaschinen. Außerdem wurden die Suchmöglichkeiten für diesen Bereich optimiert, so kann man zum Beispiel bei einer Filmsuchseite direkt nach einem bestimmten Regisseur suchen. Spezialsuchmaschinen sind jedoch häufig schwer zu finden und nur auf ein bestimmtes Thema beschränkt.
rseekEin Beispiel hierfür ist die Wayback Machine, mit deren Hilfe sich alte Versionen von Website finden lassen und man quasi eine Zeitreise durchs Internet machen kann. Ein anderes Beispiel ist R-seek, eine Suchmaschine speziell für die Programmiersprache R, da das Googeln nach dem Buchstaben „R“ seine Schwierigkeiten mit sich bringt.

Meta-Suchmaschinen

16ixquick

Sie sehen zwar nicht anders aus als normale Suchmaschinen, aber eigentlich sind Meta-Suchmaschinen gar keine eigenen Suchmaschinen, da sie sich die Arbeit der anderen zu Nutze machen. So leiten sie die Anfragen an verschiedene Suchdienste weiter, sammeln von jedem die zurückgelieferten Ergebnisse und fassen diese dann in einer einheitlichen Trefferliste zusammen. Dabei entfernen sie die Doppeltreffer und bieten einem eine kleinere Auswahl der anderen Suchdienste an. Die Qualität der Ergebnisse wird aber häufig niedriger eingeschätzt, da sie meistens nur die ersten Ergebnisse der anderen Suchmaschinen berücksichtigen. Beispiele für Meta-Suchmaschinen sind Ixquick, welche sich selbst die diskreteste Suchmaschine der Welt nennt (siehe auch Abschnitt „Alternativen“) oder Carrot², die die Suchergebnisse nach Themengebieten aufbereitet und nicht in einer lagen unsortierten Liste präsentiert.

04carrot

Verzeichnissen und Linksammlungen

05Verzeichnis

Wenn man sich zu einem bestimmten Thema erst einmal einen Überblick verschaffen möchte, sind Verzeichnisse bzw. Sammlungen von Links besonders praktisch,. Das größte redaktionell betreute Internetverzeichnis ist das Open Directory Project, in dem Internetseiten erst nach einer bestandenen Qualitätsprüfung durch die Redakteure aufgenommen werden. Die Webseiten werden hierarchisch nach Kategorien sortiert und mit einer kurzen Beschreibung aufgeführt, oft auch mit einer Bewertung. Das Open Directory Project besitzt aber auch die häufigen Schwächen von Verzeichnissen und Linksammlungen: vielen Kategorien wirken ungepflegt und es gibt nur selten Aktualisierungen. Bis Ende der 90er waren sie eines der wichtigsten Werkzeuge zum Finden von Internetseiten, wurden aber inzwischen weitestgehend von „Social Bookmarking“ abgelöst.

Nachschlagewerke

06Wiki

Eine nützliche Alternativen zu Suchmaschinen sind Nachschlagewerke vor allem dann, wenn man nach Daten oder Fakten sucht. Bestimmt hat jeder von uns schon einmal auf Wikipedia zurückgegriffen, um Informationen zu finden. Um die Richtigkeit der Inhalte aus Wikipedia zu überprüfen, lohnt sich oft auch noch ein zweiter Blick in die Encyclopedia Britannica, deren Artikel auch frei zugänglich sind.

06Ency

Bibliothekskataloge und Fachdatenbanken

07Primus

Der Bestand von Bibliotheken wird in Bibliothekskatalogen und Fachdatenbanken erfasst, weshalb sie bei der wissenschaftlichen Recherche unabdingbar sind (wie z.B. das Suchportal Primus der Humboldt-Universität zu Berlin). So beinhalten diese auch kleinere Publikationen, die bei einer allgemeinen Suchmaschine untergehen würden oder gar nicht erst gefunden werden können. Außerdem kann man hier gezielt nach Autoren oder thematisch zusammenhängender Literatur suchen.

Ein Sammlung verschiedenster Suchdienste findet ihr zum Beispiel hier.

Funktionsweise – aus Algorithmen werden Antworten

Laut Google besteht das Internet aus 60 Trillionen einzelnen Internetseiten, Tendenz steigend. Wie ist es da möglich, dass eine Suchmaschine diese Fülle an Informationen in unter einer Sekunde durchsucht, sortiert, filtert und präsentiert?
In dem Moment, in dem man auf „Suchen“ klickt, durchsucht Google nicht wirklich das gesamte Internet, sondern seine eigenen Datenbanken. Diese liegen weltweit verteilt auf vielen Servern gespeichert, da Google täglich mehr als 3 Milliarden Suchanfragen bearbeiten muss. In diesen Datenbanken sind nach eigenen Angaben über 100 Milliarden Internetseiten „indexiert“ und mit verschiedenen Informationen gespeichert und sortiert (über 100 Millionen GB). Aber wie gelangen die Informationen in diese Datenbanken hinein?

Indexierung

09crawler

Crawler durchsuchen das Web auf der Suche nach neuen Informationen

Die Aufgabe des Finden und Sammeln von Informationen für die Datenbank wird von autonomen Software-programmen ausgeführt, so genannte „Crawler“. Diese besuchen jeden Tag zig-Milliarden Webseiten und überprüfen sie auf neue und aktuellere Inhalte, die dann in den Index aufgenommen und in den Datenbanken abgespeichert werden. Dabei hangeln sie sich quasi von einer Webseite zur nächsten, in dem sie allen dort befindlichen Links folgen, die Informationen extrahieren, kategorisieren und gefundene Begriffe zum Index hinzufügen. Die Seiten im Index werden dann nach Inhalt und anderen Faktoren sortiert, um bei einer Suchanfrage schnell auf die wichtigsten Informationen zugreifen zu können.

In dieser Technik liegen auch viele der Gründe, warum man manche Seiten nicht finden kann (sog. „Dark“ bzw. „Invisible Web“). So können Webinhaber selber festlegen, ob ihre Seiten gecrawlt werden dürfen oder nicht. Dann kann es vorkommen, dass erst gar kein Link auf die Seite führt oder der Link zu tief in der Hierarchieebene verborgen liegt, um von den Crawlern gefunden zu werden. Auch Internetseiten, die zu aktuell sind, lassen sich noch nicht über normale Suchmaschinen finden, da die Crawler Zeit brauchen, um neue Information zu entdecken und aufzunehmen. Internetseiten ohne Text können nicht aufgenommen werden, und auch Seiten mit zu viel Text können nicht vollständig indexiert werden. Außerdem können unbekannte Dateiformate und passwortgeschützte Bereiche von den Crawlern nicht erfasst und indexiert werden. Und letztendlich besteht immer noch die Möglichkeit, dass der Suchmaschinenbetreiber Seiten selber aus dem Index löscht, wenn sich z.B. nicht an die Spielregeln gehalten und durch Tricks versucht wird, die Platzierung in der Trefferliste zu verbessern.

Relevanz der Ergebnisse

Das Ranking der Suchergebnisse, also die Bewertung der Relevanz der Seiten im Index, wird durch einen bestimmten Algorithmus durchgeführt, welcher ständig erweitert und verbessert wird (ca. 2x am Tag). So kann Google seit dem letzten wirklich großen Update „Hummingbird“ (2013) die einzelnen Begriffe nicht nur statistisch behandeln, sondern analysiert auch die Semantik der Wörter. Damit kann die Software den Sinnzusammenhang der Wortkombinationen und somit die Absicht des Nutzers besser verstehen, wodurch z.B auch die Spracheingabe möglich wird. Diese Erfindung wurde von Google „Knowledge-Graph“ getauft und wird in diesem Video erklärt.

10knowledgegraph

„Knowledge-Graph“: semantische Verknüpfungen zwischen unterschiedlichsten Begriffen

Außerdem sucht Google automatisch auch nach Synonymen und anderen Wortformen als die explizite Eingabe, indem auf Wörterbücher zurückgegriffen wird. Anhand dieser Anhaltspunkte werden dann die relevanten Inhalte aus dem Index gezogen und in einer bestimmten Reihenfolge sortiert.

11pangerank

Illustration des Page-Rank-Algorithmus: je mehr eingehende Links, desto wichtiger ist die Seite

Diese Reihenfolge basiert laut Google auf über 200 unterschiedlichen Faktoren wie z.B. die Qualität der Website, deren Aktualität, der Titel, die Internetadresse und die URL-Struktur, die Nutzung von Bildern, Videos und Links.
Einer der immer noch wichtigsten Faktoren ist der nach einem der Gründer von Google (Larry Page und Sergey Brin) benannte Page-Rank-Algorithmus. Dabei wird die Wichtigkeit einer Seite über die Linkstruktur bestimmt: je mehr Links auf eine Seite verweisen, desto wichtiger ist diese Seite. Und je höher das Gewicht einer Seite ist, umso größer ist deren Effekt auf den Page-Rank einer anderen Seite.
Genau an diesem Prinzip wird neben inhaltlichen Aspekten oft angesetzt, um die Sucherergebnisse für eine Website zu optimieren: So werden Backlinks auf anderen Seiten eingekauft, damit möglichst viele Links auf die eigene Website zeigen und somit das Ranking manipuliert wird. Aber auch hiergegen versucht Google durch abstrafende Maßnahmen vorzugehen, was bei der Wichtigkeit von Google für Webseitenbetreiber existenzbedrohend sein kann. Außerdem analysiert Google auch, wie lange ein Benutzer auf einer über einen Link erreichten Seite verweilt, um die Relevanz der Seite zu beurteilen.

Personalisierung – was uns unsere „Filter Bubble“ vorenthält12datenschutz

Ein Aspekt, der überall im Internet an Bedeutung gewinnt, ist der Benutzer selbst und die Personalisierung der zur Verfügung gestellten Informationen. Auch wenn von zwei verschiedenen Personen ein und derselbe Suchbegriff eingegeben wird, können trotzdem völlig unterschiedliche Suchergebnisse erscheinen.

So hat Google gerade erst seine Datenschutzrichtlinien aktualisiert, um die Nutzungsdaten aus verschiedenen Diensten und auch aus unterschiedlichen Accounts in einem Benutzerprofil zusammenführen zu dürfen. Dies beinhaltet eine immense Fülle an privaten Informationen: über Gewohnheiten bis hin zu sensiblen Gesundheitsdaten stellen wir diesem Konzern damit freiwillig ein umfassendes Bild unserer Person zur Verfügung. Diese Informationen können dann ausgewertet werden, um unser Verhalten, unsere Interessen und unsere Vorlieben zu analysieren, damit die Suchergebnisse möglichst gut an unsere Persönlichkeit angepasst werden. Das führt wiederum dazu, dass bei identischen Suchanfragen völlig unterschiedliche Ergebnisse erscheinen, je nach dem, was Google denkt, was wir am liebsten sehen wollen.

Filter Bubble

A squirrel dying in front of your house may be more relevant to your interests right now than people dying in Africa.” – Mark Zuckerberg

Jemand, der politisch interessiert ist und viele Nachrichten liest, erhält bei der Suche nach „Ägypten“ demnach als erste Treffer Informationen über die aktuelle Situation im Land. Eine andere Person, die gerne Reiseberichte liest und viel kocht, erhält bei Eingabe des identischen Suchbegriffs dagegen Links zu Webseiten über Ägyptenreisen oder Rezeptvorschläge, erfährt aber nichts über die aktuellen Geschehnisse.
Sogar wenn man nicht mit seinem Account eingeloggt ist, analysiert Google unsere Vorlieben anhand von 57 verschiedenen Signalen (z.B. IP-Adresse, Land, Browser, Betriebssystem, …). Und auch Facebook hat seine Timeline so „intelligent“ gemacht, dass geschaut wird, welche Links wir anklicken und welche nicht, wonach dann ausgewählt wird, welche Informationen uns überhaupt noch gezeigt werden.

Dieser Wandel zur individualisierten, persönlichen Information findet in allen Bereichen des Internets statt. Eli Pariser hat darüber einen sehr interessanten TED-Talk gehalten, den ich jedem nur ans Herz legen kann (Link zum Video). Darin beschreibt er die momentane Entwicklung: Algorithmen ohne Ethik entscheiden darüber, welche Informationen wir gezeigt bekommen und welche nicht. Dies führt wiederum dazu, dass wir nur noch das sehen, was wir sehen wollen, aber nicht mehr, was wir sehen sollten. Es ist unabdingbar wichtig, sich einen unvoreingenommenen und umfassenden Eindruck verschaffen zu können und dabei auch unangenehme Informationen zu erhalten, ohne dass Dinge ausgefiltert werden. Vor allem bemangelt Eli Pariser die fehlende Transparenz, da wir nicht einmal wissen, welche Informationen uns vorenthalten werden. Doch die Freiheit von Information ist ein wichtiges Instrument unserer Demokratie, weshalb die Firmen und Programmierer ihre Verantwortung gegenüber der Gesellschaft nicht vergessen dürfen. Die Kontrolle darüber, ob und was ausgefiltert werden soll, muss in den Händen der Benutzer bleiben, damit wir weiterhin qualitativ hochwertige Informationen erhalten und uns geistig weiterentwickeln können.

 

Alternativen – Freiheit und Privatsphäre erhalten

14duck

Als Standard-Suchmaschine anlegen: Anleitung

Es gibt natürlich auch viele Alternativen zu Google, von denen ich euch drei ans Herz legen möchte. Diese Suchmaschinen sammeln keine persönlichen Informationen und erfassen auch nicht eure IP-Adresse oder setzen Cookies, um euch später wiedererkennen zu können.
Startpage wurde von einem niederländischen Unternehmen entwickelt und entstand mit dem Ziel, eine anonymisierte Google Suche zu ermöglichen. Dazu wird die Suchanfrage anonymisiert und verschlüsselt an Google weitergeleitet und die Ergebnisse werden dem Benutzer zurückgemeldet, ohne dass Startpage dabei persönliche Daten speichert. Das selbe Unternehmen hat auch die Meta-Suchmaschine Ixquick entwickelt, die die Suchergebnisse verschiedener Suchanbieter kombiniert und nicht nur über Google sucht. Als dritte Alternative gibt es DuckDuckGo, ein Open-Source-Projekt, das auch unterschiedlichste Suchdienste kombiniert und zusätzlich einen eigenen Crawler besitzt. Es präsentiert die Ergebnisse übersichtlich, bereitet die 15startpageInformationen schön auf (z.B. mit Kartenmaterial) und erzielt sehr gute Suchergebnisse.

Qualität  – beurteilen und verbessern

Da man zur Beurteilung der Qualität von den gefundenen Ergebnissen sowieso immer mehrere Suchmaschinenergebnisse vergleichen sollte, bietet es sich an, in diesem Zuge mal Alternativen zu Google anschauen. Man nimmt ja auch nicht immer gleich die erstbeste Quelle und vertraut dem Inhalt blind, sondern sucht sich verschiedene Quellen, um die Inhalte zu vergleichen. Diese Vorgehensweise empfiehlt sich auch bei Suchmaschinen.
Ein weiteres Analog zum Quellensuchen betrifft den Urheber der Webseite: Wer betreibt die Internetseite, die mir vorgeschlagen wird? Ist dies z.B. eine Bildungseinrichtung oder eine offizielle Regierungsseite, so kann dem Inhalt mehr vertraut werden, als einem Post in irgendeinem Blog. Suchmaschinen zeigen in ihrer offizielle SeiteTrefferliste nicht ohne Grund immer auch die URL mit an, auf der die Info gefunden wurde. Bei DuckDuckGo werden offizielle Webseiten sogar extra hervorgehoben.

Eine weitere Möglichkeit, um sich vor Betrug und unseriösen Webseiten zu schützen, bietet z.B. das Browser-Add On „Web Of Trust“. 17wotDort wird beim Surfen angezeigt, wie vertrauensvoll andere Benutzer die Internetseiten eingestuft haben. Dieses Programm analysiert jedoch auch wieder das Surfverhalten der Benutzer.

Häufig ist die Qualität der Suchergebnisse in dem Sinne schlecht, dass wir die Information, nach der wir suchen, gar nicht finden können. Wenn wir zu wenige Treffer erzielen, bieten sich Meta-Suchmaschinen als Alternative an. Es könnte aber auch eine Spezialsuchmaschine weiterhelfen, z.B. bei aktuellen Nachrichten Yahoo News. Eventuell ist der Suchbegriff auch zu speziell und es gibt noch ein weiter verbreiteteres Wort mit derselben Bedeutung oder allgemeinere Begriffe (Berliner, Pfannkuchen). Oft kann es auch helfen, nach den englischen Begriffen zu suchen, da diese auch auf deutschen Webseiten gebraucht werden.
Wenn wir dagegen zu viele Ergebnisse erhalten, müssen wir unsere Suche präzisieren und konkreter werden, in dem wir z.B. weitere Suchbegriffe hinzufügen, die wir in diesem Zusammenhang auch auf einer Seite erwarten würden (Berliner, Gebäck) oder einen spezielleren Begriff zum Suchen auswählen. Sehr hilfreich können dabei auch sogenannte Operatoren sein, mit deren Hilfe sich die Qualität der Ergebnisse ungeheuer verbessern lassen.

Tipps & Tricks – Suchoperatoren

Google hat Anfang November 2015 mit diesem Logo den 200. Geburtstag des Mathematikers und Philosophen George Boole geehrt. Dieser hat die Bool’sche Algebra entwickelt, auf deren Logik alle heutigen Computer und Chips aufgebaut sind und auf denen auch die Suchmaschinenalgorithmen basieren.

george-booles-200th-birthday-5636122663190528.2-hp

Die Bool’schen Operatoren: UND, ENTWEDER ODER, ODER, NICHT

In der Grafik sind die verschiedenen Logik-Operatoren zu sehen, mit denen sich zwei eingehende Wahrheitswerte (wahr/falsch bzw. 0/1) zu einem Ausgabewert verknüpfen lassen. Die UND-Verknüpfung habe wir alle schon einmal benutzt. Sie wird von Google automatisch verwendet, wenn mehrere Begriffe nacheinander eingegeben werden. Sind die Seiten erschöpft, in denen beide Begriffe auftauchen, wird zur ODER-Verknüpfung gewechselt und es werden nur noch die Seiten aufgelistet, in denen einer der Begriffe auftaucht.
Als sehr hilfreich stellt sich der NICHT-Operator heraus, mit dem man bestimmte Begriffe oder Internetseiten aus seiner Suche ausschließen kann und was bei Google mit einem Minus-Zeichen realisiert wird. So kann ich, wenn ich nach Abschlussarbeiten im klinischen Bereich suche, aber nicht an Diplomarbeiten interessiert bin, zum Beispiel folgendes eingeben:

klinische AND (Bachelor OR Master OR Abschlussarbeit) Diplom

Möchte man nach einer exakte Wortfolge suchen, beispielsweise bei einem Personennamen, so setzt man diese in Anführungszeichen. Hierbei kann man auch Wildcards benutzen, also Platzhalter für Teile, in denen unterschiedliche Dinge stehen dürfen (sog. Trunkierung, z.B.  was du heute * das verschiebe nicht auf morgen).
Mithilfe des Begriffs inurl: kann man angeben, dass ein bestimmtes Wort irgendwo in der URL auftauchen soll. Durch site: kann man präzisieren, dass der Begriff im Domainnamen (also vor .de, .com usw.) der gefundenen Seiten enthalten sein oder auf einem Bestimmten Server liegen soll (durch inzufügen von site:www.). Wenn beispielsweise nach einer außeruniversitär betreuten Arbeit gesucht wird, könnten über -site:uni viele Uni-Webseiten ausgeschlossen werden.
Da Google automatisch nach Synonymen  sucht, muss man hierfür nicht unbedingt ODER-Verknüpfungen verwenden. Außerdem braucht man für einzelne Suchbegriffe keine Platzhalter einzusetzen, um z.B. Pluralformen mit einzubeziehen, da über Wörterbücher gleich nach ähnlichen Wortformen mit gesucht wird (sog. Lemmatisierung).
Bei anderen Suchdiensten wie Bibliothekskataloge kann dies jedoch sehr hilfreich sein, auch wenn man sich z.B. über die richtige Schreibweise unsicher ist. Die erweiterte Suchfunktion bietet dafür meistens ein gutes grafisches Interface mit Filtern an. Den Umfang an möglichen Operatoren sowie die genauen Befehle für den jeweiligen Suchdienst findet man immer auf den jeweiligen Hilfeseiten.

Die Wissensmaschine

19wolf1

Probiert ein paar Beispiele aus, es ist unglaublich!

Zum Abschluss möchte ich noch ein Projekt vorstellen, welches im engeren Sinne eigentlich gar keine Suchmaschine ist, in Zukunf aber viele ihrer Aufgaben übernehmen könnte. Wolfram Alpha ist aus der Erkenntnis entstanden, dass bereits Unmengen an systematischen Informationen in Datenbanken abgespeichert sind und es unzählige Formeln und Algorithmen gibt, mit denen sich theoretisch alle Arten von Daten kombinieren und verknüpfen lassen. Hier sollen diese Aspekte nun zusammengebracht werden, mit dem Ziel, das gesamte systematische Wissen der Welt berechenbar zu machen. Und wenn man sich einmal den enormen Umfang an Themengebieten und die Vielfalt an bereits abgedeckten Bereichen anschaut, dann klingt dieses Ziel gar nicht mehr so utopisch. Für fast alles, was sich irgendwie berechnen oder als Fakt ausdrücken lässt, bietet Wolfram Alpha riesiges Potential und zusätzlich einen großen Unterhaltungsfaktor beim Endecken und Ausprobieren seiner zahlreichen Anwendungsmöglichkeiten.

Fazit – statt googeln besser recherchieren

Auch wenn unser alltäglicher Sprachgebrauch bereits eine Alternativlosigkeit oder zumindest die Vorherrschaft von Google beim Suchen und Finden von Informationen im Internet impliziert, sollten wir uns die Konsequenzen der Nutzung von Google bewusst machen und vorsichtig mit unseren persönlichen Daten umgehen. Und ganz davon abgesehen, ob wir einem Konzern einen so detaillierten Einblick in unser Privatleben erlauben und lieber in unserer eigenen kleinen Informationsblase schwimmen wollen oder nicht: Google ist bei Weitem nicht immer die beste Wahl bei der Recherche im Internet.

Quellen

Buys, J. (2010). DuckDuckGo: A New Search Engine Built from Open Source  Retrieved 16.11.2015, from http://ostatic.com/blog/duckduckgo-a-new-search-engine-built-from-open-source

djm. (2015). Darum sollten Sie den neuen Datenschutzrichtlinien von Google nicht zustimmen.  Retrieved 16.11.2015, from http://www.focus.de/digital/videos/datenkrake-google-verbraucherschuetzer-diesen-datenschutzrichtlinien-sollten-sie-nicht-zustimmen_id_5059676.html

Dudenverlag. (2015). Duden – Die deutsche Rechtschreibung.  Retrieved 16.11.2015, from http://www.duden.de/

Goldmayer, A. (2012). Neue Datenschutzbestimmungen von Google verstoßen gegen EU-Recht.  Retrieved 16.11.2015, from http://t3n.de/news/neue-datenschutzbestimmungen-371347/

Google. (2015). So funktioniert die Suche.  Retrieved 16.11.2015, from http://www.google.com/insidesearch/howsearchworks/thestory/

Hemken, H. (2015). SEO-united.de – Suchmaschinenoptimierung.  Retrieved 16.11.2015, from http://www.seo-united.de/

LLC, W. A. (2015). What is Wolfram|Alpha?.  Retrieved 16.11.2015, from http://www.wolframalpha.com/tour/what-is-wolframalpha.html

Maik, b. c. (2015). Google-Rankingfaktoren: Wie funktioniert die Suchmaschine Google? Teil 1.  Retrieved 16.11.2015, from http://www.backlinktest.com/blog/google-rankingfaktoren-wie-funktioniert-die-suchmaschine-google-teil-1/

Pariser, E. (2011). Beware online „filter bubbles“.  Retrieved 16.11.2015, from http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles

Pascal. (2015). Google Doodle zum 200. Geburtstag von George Boole.  Retrieved 16.11.2015, from http://www.googlewatchblog.de/2015/11/google-doodle-geburtstag-george/

Rosada-Braum, R. M. (2015). Web-Barometer.  Retrieved 16.11.2015, from http://www.webhits.de/deutsch/index.shtml?/deutsch/webstats.html

Wikipedia. (2015). Google Hummingbird.  Retrieved 16.11.2015, from https://de.wikipedia.org/wiki/Google_Hummingbird

Wikipedia. (2015). PageRank.  Retrieved 16.11.2015, from https://de.wikipedia.org/wiki/PageRank

Wolf, S. (2014). Suchmaschinen-Tutorial.  Retrieved 16.11.2015, from http://www.ub.uni-bielefeld.de/biblio/search/

Wolf, S. (2015). Sebastian Wolf’s List: Suchmaschinen-Tutorial. Retrieved 16.11.2015, from https://www.diigo.com/list/bibliothekswelt/suchmaschinen_tutorial?page_num=0&order_by=1

zusätzliche Bilderquellen

http://blogs.library.jhu.edu/wordpress/2014/07/web-archiving-the-wayback-machine/
http://blog.keliweb.it/2014/10/leggi-come-indicizzare-un-sito/http://www.w3x.de/
http://seoswan.com/
http://www.socialmediatoday.com/content/15-reasons-why-google-search-page-has-just-3-buttons
http://www.allekurse.de/computer-edv/datenbankkurse

 

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s