CSCW – Gruppenarbeit 4.0

Digitalisierung ist in aller Munde. Sie verändert nicht nur was, sondern auch wie wir arbeiten – und so auch wie wir zusammenarbeiten! Speziell zur Unterstützung von Teams stehen zahlreiche digitale Tools zur Verfügung. Du willst du erfahren, welche dich in deinem Studium, im Job oder auch in deinen privaten Projekten unterstützen können? Hast du schon mal von slack oder Trello gehört? Möchtest du Wissen, wie wir in Zukunft als digitale Nomaden von jedem beliebigen Ort aus zusammenarbeiten könnten?

Dann klick dich durch diese prezi – oder lese den folgenden Blogbeitrag! Viel Spaß!

1. Computer Supported Cooperative Work

cscw

CSCWhat? Der Ursprung eines Forschungsbereichs

Im Jahre 1984 veranstalteten die amerikanischen Computerwissenschaftler Irene Greif und Paul Cashman einen interdisziplinären Workshop Endicott House, Massachusetts der sich mit dem Verstehen und der Unterstützung von Kollaboration durch technische Systeme auseinander setzen sollte. Im Zuge dieses Workshops prägte sich der Begriff CSCW – Computer Supported Cooperative Work. Seit dem finden regelmäßige internationale Konferenzen zu CSCW statt.

Computer Supported Cooperative Work: technische Unterstützung von Gruppenarbeit

Heute beschreibt CSCW einen multidisziplinären Forschungsbereich, der sich mit dem Verstehen sozialer Interaktion und der Entwicklung, Gestaltung und Evaluation von technischen Systemen zur Unterstützung dieser auseinandersetzt. Der Fokus des Gebiets bezog sich dabei vorerst primär auf Systeme wie E-Mail oder Videokonferenz. Durch die fortschreitende technologische Entwicklung entwickelten damit einher die CSCW Systeme im Sinne einer Ko-Evolution.

gross-und-koch-schlechte-quali

Klassifikation  nach Gross und Koch (2007)

Zur Klassifikation von CSCW haben Gross und Koch (2007) eine Systematik nach Unterscheidung folgender vier Aspekte vorgeschlagen: (1) die soziale Entität, von Dyaden über Teams zu ganzen Organisationen, (2)

die Art der Interaktion, z.B. Unterstützung der Koordination, (3) die Art der Unterstützung, wie z.B. Awareness-Unterstützung sowie (4) die daraus entstehenden Toolklassen wie Gruppenkalender oder Blogs vorgeschlagen.

Groups- + Software = Groupware

Die aus der CSCW Forschung entstehenden Software, Hardware und Dienste zur Unterstützung von Gruppen lassen sich unter dem Begriff Groupware zusammenfassen. Groupware bezeichnet damit „Computer basierte Systeme zur Unterstützung von Gruppen mit einer gemeinsamen Aufgabe (oder Ziel) mit der Bereitstellung einer Oberfläche für das geteilte Umfeld (Ellis, Gibbs and Rein, 1991).

Ordnung ist das halbe Leben: Klassifikationssysteme

bildschirmfoto-2017-01-23-um-16-29-06

Raum-Zeit Matrix (Johansen, 1991)

Die unterschiedlichen Klassifikationen von Groupware unterscheiden sich in den Dimensionen, anhand derer sie die Tools ordnen. So stellt Johansen (1991) die zweidimensionale Raum-Zeit Matrix vor. Je nach Ausprägung der Dimensionen Raum und Zeit (gleich vs. verschieden) lässt sich aus der entstehenden vier-Felder-Tafel das geeignete Tool zur Unterstützung der Gruppe

3k-modell

3K Modell (Teufel et al., 1995)r Gruppe auswählen

 

 

Teufel und Kollegen (1995) wählen in ihrem 3K-Modell die Dimension der Art der Interaktion, die unterstützt wird. Die Verortung der Groupware erfolgt anhand der Frage, ob diese primär Kommunikation, Koordination oder Kooperation unterstützen. Kommunikation beschreibt dabei primär den Informationsaustausch und die Verständigung zwischen Akteuren. Koordination primär die Abstimmung aufgabenbezogener Tätigkeiten, und Kooperation schließlich die Arbeit in Richtung eines gemeinsamen Zieles und an gemeinsamen Artefakten. Groupware Systeme lassen sich je nach Funktion innerhalb des Dreiecks verorten. Teufel et. al. unterscheiden dazu vier verschiedene Systemklassen, die auf der Darstellung erkenntlich sind.

Aber was genau heißt Kommunikation? Welche Probleme können bei der Kooperation auftreten, und wie sind diese zu lösen? Und wie können wir als Gruppe mit Hilfe von Groupware kooperieren? Orientiert am 3K Modell möchte ich im folgenden Artikel auf die einzelnen Aspekte Kommunikation, Koordination und Kooperation näher eingehen.

2. Kommunikation

kommunikation

Definition und Historische Entwicklung der Kommunikation: Von Zeigegeste über Rauchzeichen zu Twitter

Nach Teufel et. al (1995) ist „Kommunikation ist die Verständigung mehrerer Personen untereinander.“ Doch worin liegt der Ursprung der menschlichen Kommunikation? Michael Tomasello, Ko-Direktor des Max-Planck-Instituts für evolutionäre Forschung hat diesen untersucht. Dabei betrachtet er die Ontogenese als Schlüssel zur Phylogenese und beobachtet: Sowohl Schimpansen als auch Kinder im vorsprachlichen Alter nutzen Zeigegesten, um sich miteinander zu verständigen. Daraus leitet er den Ursprung menschlicher Kommunikation in Gesten und Gebärden ab (Tomasello, 2011).

Was motivierte den Menschen, seine Kommunikation zu verfeinern und so komplex auszubauen? Harald Haarmann, deutscher Sprach- und Kulturwissenschaftler, deutet auf die Kooperation des homo socialis. Kommunikation bildet die Grundlage für die folgenden Prozesse der Kooperation und Koordination, wodurch dieser eine besondere Bedeutung zufällt. Die historische Entwicklung der Kommunikation von Trommeln über Telegramme bis hin zu Twitter zeigt diese Infografik.

Ain’t no other Model: die systematische Beschreibung von Kommunikationsprozessen

 Fast so alt wie Kommunikation sind die angestellten Überlegungen über systematische Beschreibung von Kommunikation. Bereits Aristoteles schlug 300 v.Chr. eines der ersten Modelle vor. Hand in Hand mit der Evolution der Kommunikationsmittel verlief eine Evolution der Modelle, die mit Hilfe unterschiedlicher Komplexität und Perspektiven Kommunikationsprozesse beschreiben.

Rationale Gesprächsbeiträge: Die Überlegungen des Paul Grice

So beschäftigte sich auch der englische Philosoph Paul Grice mit Kommunikation. Er fragte sich: Wie muss Kommunikation beschaffen sein, um höheren Zielen wie Kooperation dienen kann? Als Logiker lautet seine Antwort: Rational! Er stellte 1975 das Kooperationsprinzip vor, nach dem rationale Gesprächsbeiträge gestaltet werden sollten. Es besagt:

„Gestalte deinen Gesprächsbeitrag so, dass er dem anerkannten Zweck dient, den du gerade zusammen mit deinen Kommunikationspartners verfolgst.“

Dazu betrachtet er vier Maximen:

1) Maxime der Quantität

  • Mache deinen Gesprächsbeitrag mindestens so informativ, wie es für den anerkannten Zweck des Gesprächs nötig ist.
  • Mache deinen Beitrag nicht informativer, als es für den anerkannten Zweck des Gesprächs nötig ist.

2) Maxime der Qualität

  • Versuche einen Gesprächsbeitrag zu liefern, der wahr ist.
  • Sage nichts, wovon du glaubst, dass es falsch ist.
  • Sage nichts, wofür du keine hinreichenden Anhaltspunkte hast

3) Maxime der Relevanz

  • Sage nichts, was nicht zum Thema gehört, wechsle nicht das Thema.

4) Maxime des Stils/der Modalität

  • Vermeide Unklarheit.
  • Vermeide Mehrdeutigkeit.
  • Vermeide unnötige Weitschweifigkeit.
  • Vermeide Ungeordnetheit

Oder kürzer ausgedrückt: „Sage nur, was informativ, wahr und wichtig ist, uns sage dies klar und deutlich.“

Eine Frage, die im Zusammenhang des Seminars spannend ist: Wie könnten Denkwerkzeuge dabei unterstützen, diese Maximen einzuhalten? Während es bei Nutzung von SMS noch eine Zeichenbegrenzung gab, lädt WhatsApp zur Ausführlichen Schilderung von Sachverhalten ein, was der ersten Maxime widersprechen könnte. Der Reiz von Twitter mag wiederum gerade an einer wieder eingeführten Zeichenbegrenzung liegen?

Kommunikation im Unternehmen: Von Ketten, Sternen und Netzwerken

Als Grundlage jeglicher Koordination und Kooperation ist Kommunikation auch in Unternehmen von großer Bedeutung. Darüber hinaus erfüllt sie neben der Informations- eine Motivations- und Kontrollfunktion und befriedigt soziale Bedürfnisse.

unternehmen_kommstruktureen

typische Strukturmuster der Kommunikation in Unternehmen nach von Rosenstiel (1980)

In der Organisationspsychologie nimmt die etrachtung von Kommunikationsstrukturen in Unte
rnehmen demnach eine besondere Rolle ei. Lutz von Rosenstiel (1980) unterscheidet drei wesentliche Strukturmuster  unterscheiden: (1) die Kettenstruktur, (2) die Rad- oder Sternstruktur, und (3) die Voll- bzw. Totalstruktur.

Die Kettenstrukturzeichnet sich durch unidirektionale Weitergabe an einen Empfänger aus. Das Rad/Stern wird geprägt durch eine Führungsperson oder Gruppenleiter, der eine zentrale Rolle einnimmt. Wenn alle Gruppenmitglieder direkt miteinander kommunizieren handelt es sich um eine Vollstruktur. Davon beeinflusst wird Geschwindigkeit und Präzision der Kommunikation, Herausbildung einer Führerrolle sowie die Zufriedenheit der Mitglieder.

“be less busy: slack”slack

Die Groupware slack verspricht durch real-time Messaging, Archivierung und Suchfunktion in einem jegliche Kommunikation moderner Teams an einem Ort zusammenzubringen. Unterhaltsam erklärt wird dies von den Gründern selbst hier.

Die Applikation für den Desktop sowie mobile Geräte bietet einen Chatroom für Teams, der durch einzelne Kanäle für eigene Themen strukturiert wird. Darüber hinaus gibt es die Möglichkeit der Direktansprache einzelner Teammitglieder sowie Direktnachrichten. Die Suchfunktion vereinfacht das Finden relevanter Informationen oder hochgeladener Inhalte. Slack zeichnet sich durch multiple Möglichkeiten der Verknüpfung mit anderen Groupware Diensten wie Dropbox, Google Calender oder Google Docs aus. Bei der Erstellung dieser unterstützen sehr hilfreich und anschaulich Tutorials sowie der „slackbot“ Help-Chat. Sobald man sich einmal durch das Einrichten der benötigten Verknüpfungen zu anderen Diensten gearbeitet hat belohnt Slack mit einer überzeugenden Lösung zur Konzentration jeglicher Kommunikation.

slacks-demo

Nutzung von slack innerhalb einer Lerngruppe

3. Koordination

koordination

Beispiele erfolgender Kommunikation sind in unserem Alltag leicht erkennbar. In welchen Situationen wird die Bedeutung von Koordination besonders deutlich? Hier hilft es, sich zwei Trapezkünstler vorzustellen, der Absprung von dem Trapez muss haargenau auf die Bereitschaft zum Fangen des Partners abgestimmt sein. Er muss sich sowohl an der richtigen Position befinden, als auch genau den Moment abpassen. Mit diesem Bild im Hinterkopf wird die Bedeutung von Koordination schnell erkenntlich: Koordination beschreibt das Management von Abhängigkeiten zwischen Aktivitäten die zur Zielerreichung führen (Marlone & Crowston, 1994).

“Managing dependencies between activities”

Welche Arten von Abhängigkeiten können dabei auftreten? Marlone und Crowston (1995) unterschieden drei Mechanismen:

(1) Die Erzeuger-/Verbraucher-Abhängigkeit

Das Ergebnis einer Aktivität wird für die nächste benötigt. Der erfolgreiche Abschluss einer Handlung ist Vorbedingung für die Ausführung der Folgeaktivität. Eine solche Abhängigkeit besteht zum Beispiel zwischen Fliesenleger und Verfuger.

(2) Gemeinsame Ressourcen

Nur in begrenzter Anzahl zur Verfügung stehende Ressourcen werden von verschiedenen Aktivitäten benötigt. Bei den Ressourcen kann es sich z.B. um Geld, Speicherplatz oder auch Zeit handeln.

(3) Gleichzeitigkeit

Wie auch bei dem Beispiel mit den Trapezkünstlern müssen manche Aktivitäten auch in anderen Kontexten zur gleichen Zeit stattfinden, so zum Beispiel Teambesprechungen.

Koordinatorische Herausforderungen + Tools to help you out

Aus diesen Abhängigkeiten zwischen Akteuren und Aufgaben ergeben sich wiederum vier Herausforderungen: das Finden eines Termins, Verfügbarmachen von Ergebnissen, Planung der Aufgabenaufteilung und -verteilung sowie die Information über den aktuellen Arbeitsstatus. Wie hilft Groupware bei der spezifischen Unterstützung dieser koordinatorischen Prozesse?

Dating für Gruppen: Terminfindung

Neben der einfachen Abfrage möglicher Terminvorschläge durch Tools wie doodle schaffen geteilte Kalendersysteme Abhilfe: Mit Hilfe von Google Calender, Outlook oder Apple Calender können Freigaben zur Betrachtung und Verwaltung von Kalendern an mehrere Personen erteilt werden und somit Kalender unterschiedlicher Teammitglieder auf der Suche nach einem Termin einfach miteinander abgeglichen werden.

Meins, Deins, Unsers: Die Verfügbarkeit von Ergebnissen

Cloud Storage bietet Möglichkeiten, Ergebnisse sowohl zwischen Personen als auch zwischen Arbeitsplätzen zu teilen. Während das wohl bekannteste Tool Dropbox ist, gibt es auch alternative Anbieter von Cloud Storage, wie z.B. Box. Im Vergleich zu Dropbox zeichnet sich Box durch größere Sicherheit, höhere Verlässlichkeit der Server und Variabilität der hochzuladenden Inhalte aus und empfiehlt sich dadurch für den Einsatz in Business Kontexten. Beide Dienste sind bis zu einem gewissen Speicherpensum kostenfrei nutzbar, wer mehr benötigt kann einen Vertrag abschließen.

Wer? Wann? Was?: Aufgaben Sequenzialisierung & Information über den Arbeitsstand

Die Aufgaben Sequenzialisierung umfasst die Planung der Aufteilung, Verteilung und des zeitlichen Ablaufs. Dafür wurden Workflow Management Systeme entwickelt. Im Fokus dieser Tools steht die Aufgabenstruktur:

  • die Definition einzelner Aufgaben innerhalb des Projekts, um ein vorgeschriebenes Ergebnis zu erreichen
  • Festlegung der Reihenfolge der Aufgaben unter Berücksichtigung von Abhängigkeiten
  • Festlegung des Zeitpunkts der Ausführung
  • Definition von Zuständigkeiten, wer die Aufgabe ausführt sowie schließlich
  • Benachrichtigung von Aufgabenverantwortlichen sowie Bereitstellung eines schnellen Überblicks über den aktuellen Arbeitsstand zu jedem Zeitpunkt.trello-logo

Trello: Workflow-Management made easy and fun

Eine anschauliche Möglichkeit, sich mit digitalem Projekt- und Workflow Management vertraut zu machen bietet Trello. Innerhalb der web-optimierten Anwendung ist es möglich für Projekte sogenannten Boards anzulegen.

In Listen strukturiert lassen sich einzelne Aufgaben auf Karten vermerken, die mit Checklisten, Labels, Anhängen, Kommentaren oder Fristen versehen werden können. Die einzelnen Teammitglieder können per Drag&Drop zu Karten zugeordnet werden. Eine Übersicht über den aktuellen Arbeitsstand ermöglicht das Sortieren der Karten in Listen wie „TO DO, DOING, DONE“ oder das Nutzen farbiger Labels. Moment, wie soll das funktionieren? Eine anschauliche Einführung in unter fünf Minuten findest du hier.

Trello zeichnet sich durch seine Flexibilität in der Gestaltung der Boards aus. Diese können exakt auf die benötigte Struktur des Projekts angepasst werden sowie auch laufend angepasst werden. Hilfestellung bieten dabei bereits bestehende öffentliche Boards, die sich einfach über google finden lassen. Integrationen anderer Dienste wie z.B. slack vereinfachen die Koordination noch weiter. Als Nachteile von Trello werden im Vergleich zu klassischen Tools insbesondere das Fehlen von Time Tracking und Reporting Optionen genannt. Während die Nutzung vorerst kostenfrei ist, kann erhöhte Sicherheit durch private Boards nur gegen Gebühr gewährleistet werden. Sofern diese Kriterien jedoch eine untergeordnete Rolle spielen stellt Trello ein intuitives und anschauliches Tool zum Workflow Management dar.

Trello Demo.png

Nutzung von Trello innerhalb einer Lerngruppe

4. Kooperation

kooperation

Die Königsklasse der Unterstützung

Nachdem sich das Team nun erfolgreich kommuniziert und koordiniert, sind die Bedingung für die eigentliche Zusammenarbeit mehrerer Personen mit einem gemeinsamen Ziel oder Endprodukt unter gemeinsamer Bearbeitung von Ressourcen geschafften. Die Rede ist von Kooperation. Sie erfordert explizite Koordination, ist abhängig von Kommunikation und generiert sie wiederum selbst.

Kooperation bezeichnet die Zusammenarbeit im engeren Sinne, wie z.B. Entscheidungsfindung oder das Manipulieren geteilter Ressourcen Auch dabei kann geeignete Groupware Team unterstützen.

 Entscheidungen treffen: Show me your Vote!

Tools wie SAP Streamwork unterstützen kollaboratives Treffen von Entscheidungen. Templates für Pro/Contra Auflistungen, Rankings oder Abstimmungen können per E-Mail an Teammitglieder versendet werden. Mittlerweile bietet SAP diese Funktionen im Rahmen des umfassenderen Dienstes Jam Collaboration an. Als Enterprise Social Network stellt dieses eine Art Facebook für Organisationen dar, Features zur strukturierten Kollaboration sind lediglich ein Teil davon. Jam Collaboration ist nicht kostenlos erhältlich. Daher an dieser Stelle ein kleiner Hack: Doodle bietet sich, neben der Terminfindung, sehr gut für Abstimmungen an!

Gemeinsames Manipulieren von Ressourcen: geteilte Dokumente, Mindmaps + Pinnwände

Tools wie Google Drive bieten kostenfreie Möglichkeit der zeitgleichen gemeinsamen Bearbeitung von Inhalten wie Dokumenten, PowerPoint Präsentationen und Excel Tabellen.

Gemeinsames erstellen von MindMaps ermöglichen Mindmeister oder bubbl.us. Steht eher die Optik, weniger die Strukturierung von Inhalten im Fokus ermöglicht Padlet das gemeinsame Erstellen von virtuellen Pinnwänden. Design Vorlagen unterstützen bei der Gestaltung, zahlreiche Upload und Verlinkungs-Möglichkeiten, wie z.B. zu Spotify, bieten viel kreativen Freiraum.

Virtuelle Meetings

Groupware ist der Schlüssel zu Kooperation in virtuellen Welten. Bereits heute finden virtuelle Meetings mit Hilfe von Telefon- oder Videokonferenzen statt. In Webkonferenzen können dem Publikum Dokumente gezeigt und der eigene Bildschirm auf mehreren Geräten angezeigt werden. Die Vorteile dieser Form von Meetings gegenüber dem realen Zusammenkommen einer Arbeitsgruppe liegen auf der Hand: Zeit, Kosten und die Umwelt durch Anreisen werden geschont, internationale Teams können von verschiedensten Orten aus teilnehmen. Eine Begrenzung der Teilnehmerzahl durch physische Rahmen wie Raumgröße und Anzahl von Stühlen fallen gänzlich weg. Welche Nachteile entstehen bei dem lediglich virtuellen Zusammenkommen von Teams? Laut dem Virtual Team Survey Report (2010) stellt das Fehlen non-verbaler Hinweise der Kommunikation stellt für 94% der Befragten eine der größten persönlichen Herausforderungen dar.

Futurama: Meetings in virtuellen Welten mit Hilfe von Simulationen und VR/AR

second-life-meeting

virtuelles Meeting in Second Life

In dem Bestreben, eine durch Nutzer gestaltete und kontrollierte Parallelwelt zu schaffen entwickelte Linden Lab in San Francisco ab 1999 die Plattform Second Life. So können sich alle Teammitglieder durch ihre Avatare in einem virtuellen Besprechungsraum zusammenfinden. Die exakte Steuerung dieser ermöglicht differenziertere Kommunikation, wie z.B. der Ausdruck von Applaus oder Heben eines Armes zum Anzeigen einer Wortmeldung.

vnc_in_cobalt_pre_alpha

virtueller exhibition space in Croquet

Die Erschaffung virtueller Welten als multi-user-virtual work and exhibition spaces im Rahmen der Open Source Plattform Open Cobalt ermöglicht das Croquet Projekt.Wenn gleich sich insbesondere Second Life mit über 7 Millionen Nutzern zeitweise großer Beliebtheit erfreut hat, sind die Nutzerzahlen heute stark rückläufig. Diese Form der Groupware scheint sich nicht durchgesetzt zu haben. Jedoch lassen die aktuellen technischen Innovationen im Bereich Virtual Reality (VR)  die Diskussion über Meetings in virtuellen Welten wieder aufleben. So sieht Facebook Gründer Mark Zuckerberg in virtuelle Realitäten die Plattform, auf der sich Menschen in der Zukunft vernetzten werden.

Das Unternehmen AltspaceVR möchte Virtual Reality Lösungen für Teams zugänglich machen. Im April 2016 stellten sie eine Integration mit slack vor, mit Hilfe derer Kollegen auf Knopfdruck in einen virtuellen Team Arbeitsraum gerufen werden können.

Während kritische Stimmen den Mehrwert eines fiktionalen Avatars gegenüber dem traditionellen Screen Sharing hinterfragen, sieht Professor Bailenson, Gründer des Standford Virtual Human Interaction Labs darin einmalige Möglichkeiten, die bisherigen Nachteile virtueller Meetings auszugleichen. Die VR Technologie ermöglicht demnach Kommunikation über non-verbale Hinweise wie z.B. Einnahme eines gewissen Abstands oder virtuelle Berührungen und Gesten.

Eine weitere Technologie verspricht, uns noch näher an reale Meetings zu bringen und überwindet gleichzeitig die Herausforderung der Repräsentation durch einen Avatar: Augmented Reality (AR). Mit Hilfe von 3D Kameras wird ein digitales Abbild einer Person berechnet, welches in Form eines Holograms in das Sichtfeld eines Microsoft Hololens Trägers projiziert wird. Dies geschieht in Echt-Zeit und zielt damit auf die Erweckung des Eindrucks ab, einem Meeting-Partner real gegenüber zu stehen. Eine eindrucksvolle Demo gibt es hier.

Innovationen wie die eben genannten prägen das Forschungsfeld CSCW und die daraus entstehende Groupware maßgeblich. Einige Tools wie die E-Mail sind aus unserem Alltag nicht mehr weg zu denken, andere wie das Zusammentreffen in Form von Hologrammen durch Augmented Reality erscheinen vermutlich noch schwer vorstellbar. Ob wir in Zukunft als digitale Nomaden von überall auf der Welt in Gruppen zusammenarbeiten können und dafür lediglich Strom und eine stabile Internetverbindung benötigen wird die Zukunft von CSCW zeigen.

Referenzen

Ellis, C. A., Gibbs, S. J., & Rein, G. (1991). Groupware: some issues and experiences. Communications of the ACM, 34(1), 39-58.

Ellis, C. A., Gibbs, S. J., & Rein, G. (1991). Groupware: some issues and experiences. Commun. ACM, 34(1), 39-58. doi: 10.1145/99977.99987

Grice, H. P. (1970). Logic and conversation (pp. 41-58).

Gross, T., & Koch, M. (2007). Computer-supported cooperative work. München: Oldenbourg.

Haarmann, H. (2010). Weltgeschichte der Sprachen: von der Frühzeit des Menschen bis zur Gegenwart. CH Beck.

Johansen, R. (1991). Teams for tomorrow [groupware]. In System Sciences, 1991. Proceedings of the Twenty-Fourth Annual Hawaii International Conference on (Vol. 3, pp. 521-534). IEEE.

Malone, T. W., & Crowston, K. (1994). The interdisciplinary study of coordination. ACM Computing Surveys (CSUR), 26(1), 87-119.

Teufel, S., Bauknecht, K., Mühlherr, T., Sauter, C., &  (1995). Computerunterstützung für die Gruppenarbeit. Bonn: Addison-Wesley.

Tomasello, M. (2011). Die Ursprünge der menschlichen Kommunikation. Frankfurt a. M.: Suhrkamp.

Von Rosenstiel, L., & Nerdinger, F. W. (1980). Grundlagen der Organisationspsychologie: Basiswissen und Anwendungshinweise. Schäffer-Poeschel.

Präsentieren, schreiben & veröffentlichen

14.12.2016 – Es ist geschafft! Mein Vortrag im Seminar „Denkwerkzeuge im Wissensmanagement“ liegt inzwischen hinter mir. Ich habe über die Themen präsentieren, schreiben & veröffentlichen referiert und freue mich sehr, dass die Präsentation mit meinem speziellen Denkwerkzeug so reibungslos verlaufen ist. Außerdem möchte ich mich herzlich für die anregenden Diskussionen im Plenum bedanken, sie haben die Präsentation sehr bereichert. Damit die Informationen, die im Laufe der Stunde gegeben wurden, nach Ablauf der Seminarzeit nicht verloren gehen, wird zum Einen der Link meiner Prezi-Präsentation bereitgestellt, zum Anderen werden die Informationen über diesen Blog veröffentlicht und auch für Mitglieder des Seminars, die nicht bei der Präsentation dabei sein konnten, verfügbar gemacht. Für alle, die nicht dabei waren folgt hier nun also eine schriftliche Zusammenfassung des Referats. Viel Freude beim Lesen!

Link der Präsentation:

http://prezi.com/2pvsegbfekbs/?utm_campaign=share&utm_medium=copy&rc=ex0share

ubersicht-vollbild

agenda-vollbild

  1. Die Bedeutung der Weitergabe von Informationen

Die Weitergabe von Informationen ist ein zentraler Aspekt im Kontext des Studiums. Jeder Studierende muss über kurz oder lang Referate halten, Haus- und Abschlussarbeiten verfassen und in den Vorlesungen sind computergestützte Präsentationen und wissenschaftliche Veröffentlichungen an der Tagesordnung. All diese Hürden im Studium dienen dazu, den Studierenden Neues beizubringen und sich zusätzlich die Kompetenzen im Weitergeben von Informationen anzueignen, damit sie ihrerseits in der Lage sind, Anderen das Gelernte zu vermitteln. Denn nicht nur das selektive Suchen, Sammeln und Strukturieren von Informationen ist wichtig, die Informationen müssen in vielen Kontexten auch an andere Personen weitergegeben werden, damit das Wissen nicht über kurz oder lang verloren geht. Zudem ermöglicht die Weitergabe von Informationen eine schnellere und innovativere Entwicklung von neuen Ideen und Konzepten, da eigene Forschung auf bereits vorhandenem Wissen aufgebaut werden kann. Kurz gesagt: Würden Andere ihr Wissen nicht an uns weitergeben, hätten wir überhaupt keine Informationen, die wir suchen, sammeln oder strukturieren könnten und wir müssten stets mit den Grundlagen eines Problems beginnen.

 

Es ist also wichtig seine Erkenntnisse mit Anderen zu teilen, doch wie kann ich mein Wissen so aufbereiten, dass es für Außenstehende zugänglich, ansprechend und verständlich ist? Dafür gibt es verschiedenste Möglichkeiten der Weitergabe von Informationen, seien sie auditiv oder visuell. Folgende Methoden sollen im Folgenden näher erläutert werden: die mündliche, visuell unterstützte Präsentation, die schriftliche Fixierung und die sich daran anschließende Veröffentlichung von schriftlich festgehaltenen Gedanken.

  1. Die Präsentation

prasentieren

Die computergestützte Präsentation ist die Form von Informationsweitergabe, denen sich die Studierenden im Fach Psychologie am häufigsten gegenüber sehen. Dennoch standen die Seminarteilnehmer den Referaten mit gemischten Gefühlen gegenüber. Sie berichteten von einer Vielzahl von Problemen, die bei einer Präsentation auftreten können: von überladenen oder nichtssagenden Folien bis hin zu einem Verlust des roten Fadens während des Referates. Auch die Festlegung und Einhaltung einer Struktur, die durch den Vortrag führt, wurde als große Herausforderung beschrieben. Es folgte eine kurze Diskussion darüber in welcher Reihenfolge Vortrag und Präsentationsfolien erstellt werden sollten, um ein optimales Ergebnis zu erzielen. Denn bei vielen Studierenden erfolgte die Folienerstellung bereits ganz zu Beginn während der Ausarbeitung der Inhalte, was sie jedoch selbst im Verlauf der Debatte kritisierten. Sie berichteten ein Gefühl von Begrenzung der kreativen Möglichkeiten sobald die ersten Folien fertig gestellt waren, gleichzeitig äußerten sie jedoch auch einen Widerwillen, bereits erstellte Folien wieder zu löschen, weshalb es zumeist bei den Ideen des ersten Entwurfes bliebe und nur noch geringfügige Änderungen vorgenommen würden. Im Rahmen der Frage, wie ein solches organisatorisches Problem gelöst werden könnte, erfolgte ein kurzer Exkurs in die Präsentationsphilosophie von Garr Reynolds, der in seinem Buch „ZEN oder die Kunst der Präsentation“, die analoge Planung von Referaten empfiehlt. Unter analoger Planung versteht er dabei zunächst den kompletten Verzicht auf computergestützte Präsentationsprogramme. Stattdessen sollen die Kernideen der Inhalte, sowie die Struktur und ein möglicher Ablauf der Präsentation zu Beginn der Erarbeitung des Vortrages mit Papier und Stift, Whiteboards oder Post-it-Notizen festgehalten werden. Den Computer und somit die Foliengestaltung ordnet er erst zu dem Zeitpunkt an, an dem das gesamte Referat inhaltlich steht und der Referierende sich über die Kernaussage seines Vortrages im Klaren ist. Reynolds Ansatz wurde von den Seminarteilnehmern positiv aufgefasst, da hier strategische Ziele im Mittelpunkt stehen und die vorgestellte Strategie auf verschiedenste Referatsthemen anwendbar ist. Als Nachteil dieser Methode wurde allerdings der erhöhte Zeitaufwand genannt, welcher bei der gleichzeitigen Erstellung von Vortrag und Folien (und somit dem Verfolgen von operativen Zielen) nicht gegeben ist.

2.1 Die Ziele einer Präsentation und die Ableitung von Anforderungen an deren Denkwerkzeuge

Aus den oben genannten Schwierigkeiten beim Präsentieren leiteten die Seminarteilnehmer anschließend ihre Ziele ab, die sie verfolgen, wenn sie ein besonders gutes Referat mit einer besonders guten visuellen Unterstützung vorlegen möchten. Als wichtigste Ziele wurden hier beispielsweise das Fesseln der Zuhörer, sowie der unumstritten im universitären Kontext wichtige Lernaspekt der Zuhörer genannt. Außerdem wollten die Seminarteilnehmer sich ungern in ihrer eigenen Präsentation verlieren und setzten deshalb das Ziel, jederzeit die Kontrolle über den Verlauf des Referates zu behalten. Doch was bedeuten diese Ziele eines jeden Referenten nun für mögliche Denkwerkzeuge, die es sich zur Aufgabe gemacht haben, Referate jeglicher Form ansprechender und effektiver zu gestalten? Welche Denkwerkzeuge gibt es für Präsentationen und welche Anforderungen müssen sie erfüllen, um den Referenten eine Hilfe zu sein?

Wenn es darum geht, die soeben formulierten Ziele einer Präsentation auf Denkwerkzeuge anzuwenden, so wäre der erste Impuls einer Antwort vermutlich: „Wie soll mir denn ein Werkzeug dabei helfen Dinge verständlich zu erklären? Und wie soll es dafür sorgen, dass die Leute mir zuhören?“ Natürlich hängt der Erfolg eines Referats immer zu einem gewissen Anteil von der Kompetenz des Sprechers ab, egal wie gut das von ihm verwendete Werkzeug ist. Allerdings kann ein Denkwerkzeug mehr Unterstützung liefern, als es auf den ersten Blick den Anschein hat. So kann es zwar nicht für den Referenten sprechen, doch es gibt andere Möglichkeiten, um die Aufmerksamkeit der Zuhörer zu gewinnen und aufrecht zu erhalten, beispielsweise durch eine lebhafte Gestaltung der Inhalte. So könnte eine Anforderung an Denkwerkzeuge zum Präsentieren sein, dass sie verschiedene Layouts anbieten oder dass sich Bilder, Diagramme und Tabellen leicht integrieren lassen, um eben diese lebhafte Gestaltung zu ermöglichen. Zudem würde die Möglichkeit multimedial zu arbeiten die Aufmerksamkeit der Zuhörer wecken (z.B. Einsatz von Videos oder Sounds) und die kurze und knappe Darstellung von Inhalten würde eine mögliche Ablenkung von den wesentlichen Kernaussagen minimieren. Auch bei der Vermittlung von Wissen kann ein Denkwerkzeug einiges an Unterstützung bieten. Zwar kann es keine selbstständigen Erklärungen für komplexe Sachverhalte bieten, jedoch kann es durch eine gute Struktur der Informationen das Verständnis der Themen erleichtern. Um eine gute Struktur zu gewährleisten, könnte eine Anforderung an das Werkzeug sein, dass es beispielsweise Übersichtsdarstellungen oder Inhaltverzeichnisse ermöglicht, die den Zuhörern zeigen, in welchem Abschnitt der Präsentation sie sich gerade befinden und in welchen Kontext das Gesagte eingeordnet werden muss. Um eine lebhafte Interaktion zwischen Zuhörern und Referenten zu ermöglichen, wäre zudem ein Werkzeug von Vorteil, welches sich flexibel den Gegebenheiten der Präsentation anpassen lässt, beispielsweise indem Ergänzungen durch das Publikum direkt in die Präsentation übernommen werden können. Und auch das letzte der drei Ziele kann von einem Denkwerkzeug zum Präsentieren unter bestimmten Bedingungen erreicht werden. Wie in der Diskussion bereits festgestellt wurde, ist es nämlich nicht nur von Bedeutung, dass die Zuhörer dem Gesagten folgen können auch der Referent muss sich mit seiner Präsentation wohl fühlen und stets im Hinterkopf behalte, was er als nächstes sagen möchte. Für ein Werkzeug wäre es demzufolge wichtig, dass es den Referenten bei seinem Vortrag unterstützt, sei es durch die Anzeige einer Uhrzeit oder das mitlaufen einer Stoppuhr, um ihm zu zeigen, wie viel Zeit er noch hat, bis hin zu einer komplexen Referentenansicht, die die nachfolgenden Folien oder abgelegte Notizen anzeigt. Darüber hinaus macht es einem Referenten das Leben sehr viel leichter, wenn er ein Werkzeug universell für verschiedenste Präsentationen einsetzen kann und die Handhabung des Programms möglichst unkompliziert und einfach ist.

Es gibt also eine Vielzahl von Kriterien, die ein Denkwerkzeug zum Präsentieren erfüllen muss, um als ein „gutes“ Werkzeug zu gelten. Eine Auswahl dieser Kriterien ist hier noch einmal dargestellt:

  • Lebhafte Gestaltung ermöglichen (z.B. Layouts)
  • Multimedial funktionieren
  • Kurze, prägnante Inhalte darstellen
  • Struktur geben (z.B. Übersichten)
  • Flexibilität bieten
  • Referenten unterstützen (z.B. Stoppuhr)
  • Universal einsetzbar
  • Leichte Bedienung

Anhand dieser Kriterien lassen sich nun verschiedene Denkwerkzeuge miteinander vergleichen. Doch welche Arten von Werkzeugen stehen uns überhaupt zur Verfügung?

2.2 Werkzeuge für Präsentationen

prasentationswerkzeuge

Die ältesten und bekanntesten Werkzeuge zur Unterstützung von verbal vermitteltem Wissen sind zweifellos analoger Natur. So können beispielsweise eine bearbeitete Tontafel, ein beschriebenes Blatt Papier bzw. Pergament oder ein aufwändig gestaltetes Plakat eine mündliche Präsentation unterstützen. Anfang des 20. Jahrhunderts nahmen zudem Overhead- (ab 1927) und Diaprojektoren (1926) zunehmend den Platz an den Rednerpulten ein. In den 1970ern starteten dann erste Versuche, Präsentationen mithilfe von Computern zu erstellen. Große Zustimmung und Unterstützung fanden die Entwickler dabei z.B. durch die NASA, die an hochauflösenden Grafiken für ihre Flugsimulatoren interessiert war und die Projekte aus diesem Grund förderte. Das erste kommerziell nutzbare Präsentationsprogramm wurde 1982 von der Firma Genigraphics herausgebracht, welche von ihrer Vorreiterposition profitierten mit einem Marktanteil von 70% die führende Präsentationssoftware vertrieben.

2.2.1 PowerPoint

Mitte der 80er Jahre bekamen Genigraphics jedoch Konkurrenz von einer jungen Firma namens Forethough, die ebenfalls an einer Präsentationssoftware arbeiteten. Sie legten einen besonderen Schwerpunkt auf die Freiheiten des Users in der Gestaltung seiner Präsentationen und verfolgten das Ziel, die Erstellung von Diagrammen und Grafiken direkt in ihrem Programm zu ermöglichen. 1987 stellten Bob Gaskins und Dennis Austin ihre erste Version von PowerPoint vor. Noch im selben Jahr kaufte Microsoft die Firma Forethough auf und arbeitete an einer Weiterentwicklung der PowerPoint-Idee. Über die Jahre durchlief das Programm eine Reihe von Modifizierungen und Veränderungen, welche zu umfassend sind, um sie im Detail hier aufzuschlüsseln. Aus diesem Grund werden im Folgenden nur einige Meilensteine der Entwicklung von PowerPoint dargestellt. Während die erste Version des Programms noch in schwarz-weiß erstellt wurde, folgte 1988 PowerPoint 2.0 in Farbe. Im Jahre 1990 kam die erste Version für das Windows Betriebssystem heraus, zuvor das das Programm nur für Apple Computer, wie z.B. den Apple Macintosh verwendbar gewesen. Zwei Jahre später war PowerPoint dann auch für Laptops anwendbar, heute ist die Verwendung auch für Tablets mit spezifischen Features zur Steuerung über Berührungen möglich. Doch diese Elemente machen nur einen geringen Teil der unglaublich weit gefächerten Funktionen aus, über die PowerPoint heute verfügt. Von Layouts, über Animationen und die Integration von Bild- und Tondateien bis hin zur Referentenansicht und den Masterfolien gibt es heute nur noch wenig, was mit dem Programm nicht umsetzbar ist. Somit ist PowerPoint nicht nur eines der ältesten und umfangreichsten Programme, es ist auch das mit Abstand am weitesten verbreitete Präsentationsprogramm der Welt. Aktuell werden ca. 95% aller gehaltenen Präsentationen mit PowerPoint erstellt und jeden Tag kommen weltweit etwa 30 Millionen neue Präsentationen dazu (Stand: 2001).

powerpoint

Ansichtsbeispiel des Programms PowerPoint

2.2.2 Keynote & Impress

Jedoch ist PowerPoint nicht das einzige Präsentationsprogramm, welches bei den Nutzern weltweit Anklang findet. Auch das von Apple entwickelte Keynote und das von OpenOffice und LibreOffice vertriebene Impress sind derzeit erfolgreiche Werkzeuge zur Unterstützung von Vorträgen aller Art. Während Keynote ein Apple-Spezifisches Programm ist, welches nur auf den markeneigenen Geräten verwendet werden kann, ist Impress für alle gängigen Betriebssysteme offen. Keynote gleicht dem oben vorgestellten PowerPoint in fast allen Funktionen, die Möglichkeiten der Gestaltung sind nahezu identisch, auch wenn das Interface des Programms sich in vielerlei Hinsicht vom Marktführer unterscheidet. Auch Impress, welches in den 90er Jahren von Marco Börries entwickelt und erstmalig im StarOffice Paket veröffentlicht wurde (ähnlich wie PowerPoint in den verschiedenen Microsoft Office-Paketen), steht den vielfältigen Anwendungsmöglichkeiten der Konkurrenz in nichts nach. Es zeichnet sich besonders durch seine fünf verschiedenen Ansichtsmodi aus, zwischen denen der User während der Erstellung seiner Präsentation wechseln kann. So unterscheidet das Programm beispielsweise zwischen dem „normalen“ Modus, in dem die aktuelle Folie gezeigt wird, an welcher der User gerade arbeitet, und Modi für die Gliederung, Notizen, Handzettel und die Foliensortierung. Diese Ansichtsmöglichkeiten sind in anderen Programmen wie Keynote und PowerPoint miteinander kombiniert und zum Großteil zeitgleich auf dem aktuellen Bearbeitungsbildschirm zu sehen.

So unterschiedlich das Marketing und die individuelle Handhabung von Keynote und Impress sein mögen, eines haben die beiden Programme in jedem Fall miteinander gemein: das Grundprinzip ihrer Arbeitsweise. Beide basieren nämlich (wie auch der Marktführer PowerPoint) auf dem Prinzip der sogenannten „Slides“. Dieser Begriff, der auch mit dem Wort „Dia“ übersetzt werden kann, zeigt die enge Verbundenheit der computergestützten Präsentationsprogramme zu den oben bereits erwähnten Diaprojektoren der 1920er Jahre. Charakteristisch für Diashows ist bis heute die Form der Darbietung der gezeigten Bilder, welche nacheinander in einer bestimmten Reihenfolge erfolgt. An diesem Prinzip orientieren sich heute die meisten Präsentationssoftwares. Es werden verschiedene „Slides“ erstellt, welche nacheinander dargeboten werden. Dabei ist während der Präsentation immer nur die aktuelle Folie sichtbar und die Anordnung der einzelnen Slides erfolgt stets so, dass sie einer zuvor festgelegten Struktur folgen, die dem Zuhörer das Verständnis des Gesagten erleichtern soll. Doch ist diese Form der Darstellung die einzige Möglichkeit, um Präsentationen wirkungsvoll zu unterstützen? – Nein.

keynote

Ansichtsbeispiel des Programms Keynote

impress_de_gliederungsansicht

Gliederungsansicht des Programms Impress

2.2.3 Prezi

Ein Programm, welches von den etablierten Präsentationssoftwares abweicht, ist das Programm Prezi. Dabei handelt es sich um eine cloudbasierte Software, bei der Präsentationen zumeist online erstellt werden. Aktuell nutzen etwa 75 Mio. User das Programm mit seinen unterschiedlich umfangreichen Paketen. Die ausschließlich online-basierte und am wenigsten umfangreiche Version ist für den User kostenlos, dafür werden alle erstellten Präsentationen in der Cloud gespeichert und sind frei im Netz zugänglich. Sollen Präsentationen auf dem eigenen Rechner gespeichert und offline bearbeitet werden können, so erheben die Entwickler des Programms dafür eine Nutzungsgebühr. Anders als der Großteil der heute führenden Präsentationsprogramme arbeitet das 2009 von Arvai, Halácsy und Somlai-Fischer entwickelte Programm nicht nach dem Slide-Prinzip. Die Erstellung von Präsentationen orientiert sich eher an der Erstellung von Mind-Maps und verfolgt somit einen etwas anderen Ansatz als die Programme der Slide-Technik. Die gesamte Präsentation, welche aus einer Vielzahl von „Folien“ oder Folienabschnitten besteht, kann durch Pfeile, Linien oder Ebenenwechsel miteinander verbunden werden. Durch ein hinein- oder hinauszoomen im beliebig großen Präsentationsfeld sollen sowohl die Zusammenhänge zwischen den einzelnen „Folien“ deutlich gemacht werden, als auch der Überblick über das große Ganze nicht aus den Augen verloren werden. Für stark durchstrukturierte oder wiederkehrende Präsentationen kann ein sogenannter „Pfad“ angelegt werden, in dem die Reihenfolge der einzelnen „Folien“ festgelegt werden kann. Der Vortrag kann jedoch auch ohne festgelegte Struktur individuell dem Verlauf der Präsentation angepasst werden, indem der Referent spontan die einzelnen Elemente seiner „Mind-Map“ präsentiert. Für einen umfassenderen Eindruck der Funktionsweise von Prezi kann der Link zur Präsentation des hier beschriebenen Referats genutzt werden (Link zu Beginn dieses Blog-Eintrags). Zudem existieren im Internet eine Vielzahl von Prezi-Präsentationen zu den unterschiedlichsten Themenbereichen, welche frei im Netz verfügbar sind.

prezi

2.3 Die praktische Arbeit mit einem Werkzeug

Um den Seminarteilnehmern die Arbeitsweise von Prezi etwas näher zu bringen, folgte im Anschluss an die Vorstellung des Programms eine praktische Sequenz, in der ein Freiwilliger einige Aufgaben mit dem Programm bearbeiten sollte. Die übrigen Seminarteilnehmer konnten dabei die Schritte des Freiwilligen auf dem Bildschirm mit verfolgen. Die Arbeitsanweisungen für den praktischen Teil lauteten dabei wie folgt:

  • Lege mithilfe meines Prezi-Accounts eine neue Präsentation an.
  • Erstelle ein übergeordnetes Thema (z.B. „Informationen“) und untergeordnete Kategorien (z.B. „finden“, „strukturieren“ und „präsentieren“)
  • Verbinde die Unterkategorien mithilfe von Pfeilen mit dem übergeordneten Thema
  • Lege einen Pfad fest, nach dem alle von dir erstellten Elemente der Reihe nach einmal gezeigt werden
praxistest-prezi

Ergebnis der Praxiseinheit mit Prezi

Die Umsetzung der Arbeitsanweisungen beschrieb der Freiwillige im Anschluss als relativ schwierig und kompliziert, da ihm das Programm vollkommen unbekannt war. Ohne Hinweise und Unterstützung hätte die Erfüllung der Aufgaben wahrscheinlich einige Minuten mehr in Anspruch genommen, die leider aufgrund der begrenzten Zeit des Seminars nicht zur Verfügung standen. Denn die Einarbeitung in das Programm erfordert eine gewisse Zeit, da die Funktionsweise sich in vielerlei Hinsicht von dem unterscheidet, was der normale „PowerPoint-User“ von einer Präsentationssoftware gewöhnt ist. So müssen beispielsweise die Rahmen einzelner „Folien“ erst manuell generiert und im Präsentationsfeld platziert werden, bevor eine Bearbeitung dieser vorgenommen werden kann. Zudem ist ein häufiges Anpassen der Größe, sowie eine häufige Umplatzierung von Objekten notwendig, um die gewünschten Zusammenhänge zwischen ihnen optimal wiederzugeben. Positiv hervorgehoben wurde allerdings die hohe Flexibilität bei der Textgestaltung, da sich Textfelder automatisch durch Klicken erzeugen und beliebig im Raum platzieren lassen. Nachdem die Erfahrungen des Freiwilligen und die Beobachtungen der Zuschauer ausgewertet wurden, erfolgte ein Vergleich der Programme PowerPoint und Prezi. Die Kernaspekte dieses Vergleichs finden sich auf den Abbildungen.

powerpoint-toll-najaprezi-toll-naja

Ergänzend zu den dort aufgeführten Punkten lässt sich sagen, dass beide Programme die unter 2.1 erarbeiteten Anforderungen an ein Denkwerkzeug zur Gestaltung einer Präsentation weitgehend erfüllen. Beide Programme bieten eine Vielzahl von Layouts und Animationen, die eine lebhafte und abwechslungsreiche Gestaltung der Folien bzw. Präsentationsfläche ermöglichen, wobei die Layouts bei Prezi und die  Animationen bei PowerPoint vielfältiger sind. Beide Softwares unterstützen ein multimediales Arbeiten. Die Flexibilität und Strukturgebung des Inhalts ist bei dem nicht an Slides gebundenen Prezi stärker ausgeprägt, da der Pfad keine stringente Vorlage für den Ablauf des Referats darstellt. PowerPoint dagegen besitzt ein sehr differenziertes Unterstützungssystem für den Referenten, über welches Prezi nicht verfügt. Die Anforderungen der universellen Verwendung und der leichten Bedienbarkeit erfüllen beide Programme gleichermaßen.

  1. Das Schreiben

schreiben

Im nächsten Teil der Veranstaltung befassten wir uns mit dem Thema „Schreiben“ und „Schreibwerkzeuge“. Denn Präsentationen sind natürlich nicht der einzige Weg, um Informationen weiterzugeben. Gerade wenn es darum geht, Informationen an besonders viele Menschen zugleich zu vermitteln, ist oftmals die schriftliche Fixierung der Gedanken das Mittel der Wahl. Die Art und Weise, sich dem Thema Schreiben zu nähern glich dabei in seiner Struktur der Herangehensweise des ersten Abschnitts. Zunächst einmal wurden die Seminarteilnehmer nach den Zielen gefragt, welche sie beim Verfassen eines Textes verfolgten. Aus diesen Zielen wurden anschließend die Anforderungen an Denkwerkzeuge zum Schreiben abgeleitet.

3.1 Die Ziele beim Schreiben und die Ableitung von Anforderungen an Denkwerkzeuge

Als erstes Ziel beim Schreiben wurde die Verständlichkeit des Textes genannt, die unumgänglich sei, Wissen erfolgreich weiter zu geben. Jedoch wurde diese Antwort sogleich mit der Frage verknüpft, ob dieses Ziel überhaupt mithilfe eines Werkzeuges erreicht werden könne. Immerhin sei der beste Weg, einen verständlichen Text zu verfassen, die zu schreibenden Inhalte zunächst selbst zu verstehen. Im Rahmen einer daraufhin entstehenden Diskussion kam der Gedanke auf, dass ein Werkzeug zum Schreiben eines Textes möglicherweise auch die Funktion haben könnte, den Verfasser darin zu unterstützen, seine Gedanken zu ordnen und sie somit selbst besser zu verstehen, um sie im nächsten Schritt erfolgreich zu Papier zu bringen. Für dieses Hauptziel eines Denkwerkzeuges ließen sich anschließend die untergeordneten Ziele ableiten, dem Text eine Struktur zu verleihen, die Übersicht über die behandelten Themen zu gewährleisten und dem Verfasser bzw. dem Leser die Möglichkeit zu verschaffen, für ihn relevante Passagen möglichst schnell ausfindig zu machen. Aus diesen Zielen ergaben sich einige mögliche Anforderungen an die Denkwerkzeuge zum Verfassen von Texten. Dazu zählten beispielsweise die Fähigkeit des Werkzeuges, den Text in Abschnitte zu gliedern, ein Inhaltsverzeichnis abzubilden und verschiedene Formatierungen des Geschriebenen zuzulassen. Weitere Teilziele, die mit dem übergeordneten Ziel Wissen zu vermitteln zusammenhingen, waren die Ziele Zusammenhänge zwischen Sachverhalten herzustellen und das Gesagte zu niederzuschreiben, dass es möglichst leicht vom Leser verarbeitet werden kann. Um die Informationsverarbeitung beim Lesen zu beschleunigen sind oft grafische oder tabellarische Darstellungen von Inhalten nützlich. Eine weitere Anforderung an ein Denkwerkzeug ist als die Fähigkeit, Bilder, Tabelle, Diagramme und ähnliches in den geschriebenen Fließtext zu integrieren.

Es gibt also auch hier eine Vielzahl von Kriterien, die ein Denkwerkzeug erfüllen muss, um als ein „gutes“ Werkzeug zu gelten. Eine Auswahl dieser Kriterien ist hier erneut dargestellt:

  • Abschnitte gliedern
  • Inhaltsverzeichnisse abbilden
  • Verschiedene Formatierungen zulassen
  • Die Integration von Text, Bild, Tabellen etc. ermöglichen

3.2 Werkzeuge fürs Schreiben

schreibwerkzeuge

Das Schreiben als Festhalten von gesprochener Sprache ist eine unglaublich alte Methode um Wissen zu vermitteln und zu erhalten. Erste Hinweise auf chinesische Schriftzeichen finden sich bereits zu Zeiten etwa 6.600 v.Chr.. Weitaus bekannter sind die um 2.700 v.Chr. entstandenen Keilschriften aus Mesopotamien und die etwa gleich alten Hieroglyphen aus Ägypten. Diese ersten Schriftzeichen wurden zumeist auf Tontafeln festgehalten, später wurden diese durch Pergament und Papier ersetzt. Der im 15. Jahrhundert durch Johannes Gutenberg in Europa verbreitete Buchdruck ermöglichte dann eine Massenproduktion von Schriftstücken, die vorher in dieser Form nicht möglich war. Ein weiterer Durchbruch folgte 1808 mit der Herstellung der ersten funktionierenden Schreibmaschine, welche die Art des Schreibens substanziell veränderte. Mit der Entwicklung der ersten Computer folgten dann die ersten Software-Pakte, mit denen die User in der Lage sein sollten Schriftstücke anzufertigen. Zwei besondere Vertreter dieser computerbasierten Schreibwerkzeuge sollen im Folgenden näher erläutert werden.

3.2.1 Microsoft Word

Microsoft Word ist heute das weltweit führende und am weitesten verbreitete Textverarbeitungsprogramm der Welt. Die erste Version von Word wurde 1983 für die Xenix-Plattform entwickelt und geht auf Charles Simonyi zurück. Zum Zeitpunkt der Veröffentlichung von Word existierte bereits eine Vielzahl von anderen Programmen mit ähnlichen Funktionen. Allerdings gab es eine Besonderheit, mit der sich das neue Programm von seinen Konkurrenten abhob: es ließ sich weitestgehend mit der Maus bedienen und war somit sehr viel benutzerfreundlicher als die bisherigen Programme. Die 1986 erschienene Version Word 3.0 vereinte dann erstmals Textverarbeitung, Tabellenkalkulation, Datenbank-, Kommunikations- und Bildzeichnungstools in einem Programm. Drei Jahre später erschien die erste Version für Windows, seitdem wurden und werden die Funktionen des Programms stetig erweitert und optimiert, sowie auf ihre Usability geprüft und das Interface dementsprechend angepasst. Microsoft Word basiert in seiner Anwendung auf dem „what-you-see-is-what-you-get“-Prinzip. Das bedeutet, dass die Veränderungen, die ein User an seinem Text vornimmt, unmittelbar im Dokument sichtbar sind. Diese sichtbare Gestalt des Textes auf dem Bildschirm ist genau das, was der User bekommt, wenn er das Dokument verschickt, ausdruckt oder abspeichert, etwas Anderes gibt es nicht. Das was der User dabei auf dem Bildschirm sieht und ggf. verändert, ist dabei stets das Endprodukt einer Reihe von Befehlen, die das System verdeckt ausführt. Die genauen Befehle bleiben unbemerkt, nicht jedoch ihre Konsequenzen, die sich in der Formatierung, Schriftart und sonstigen Eigenschaften des Textes widerspiegelt. Der Vorteil der WYSIWYG-Methode ist die hohe Benutzerfreundlichkeit, da die Bedienung der Benutzeroberfläche oft keine großartigen Vorkenntnisse erfordert. Allerdings gibt es auch Programme, die nach einem anderen Grundprinzip arbeiten. Und eines davon soll im Folgenden erläutert werden.

word

Ansichtsbeispiel des Programms Microsoft Word

3.2.2 LaTeX

LaTeX ist ein Software-Paket, das dazu entwickelt wurde, um die Benutzung des bereits zuvor veröffentlichten Programms TeX mithilfe von Macros zu vereinfachen. TeX geht auf Donald E. Knuth zurück, die Erweiterung LaTeX ist eine Weiterentwicklung von Leslie Lamport. Die erste Version von LaTeX wurde Anfang der 80er Jahre veröffentlicht und der große Unterschied zu Programmen wie Microsoft Word liegt in der Grundidee der Textverarbeitung. Während Word nach dem oben beschriebenen WYSIWYG-Prinzip arbeitet, beschreibt LaTeX seine Funktionsweise mit den Worten „what you see is what you mean“. Gemeint ist mit diesem Ausdruck, dass Änderungen an Texten nicht über eine Benutzeroberfläche erfolgen, bei denen die wahren Abläufe verborgen sind, sondern dass Veränderungen explizit mit Befehlen ausgezeichnet werden. Die Arbeit am Dokument erfolgt also direkt in der Sprache des Systems. Demzufolge gibt es bei LaTeX zwei verschiedene Ansichten eines Dokuments. Zum Einen den Ansichtsmodus, der zeigt, wie das Dokument nach dem Ausführen aller Befehle aussieht, zum Anderen gibt es das „TeX-Feld“, in dem die Befehle geschrieben werden, welche das Programm ausführen soll.

beispiel-latex

Ansichtsbeispiel des Programms LaTeX

3.3 Vergleich LaTeX und Word

Ein Unterschied zwischen den Programmen, der sofort deutlich wird, ist, dass es für die Bedienung der beiden Softwares unterschiedlich gute Kenntnisse in der Programmierung erfordert. Während Word von fast jedem User nach kurzer Zeit verwendet werden kann, braucht es für die Verwendung von LaTeX erweiterte Kenntnisse, die sich über einen gewissen Zeitraum hinweg angeeignet werden müssen. Doch lohnt es sich die Zeit zu investieren und die Benutzung dieses Programms zu erlernen? In jedem Fall! Denn LaTeX bietet einige Möglichkeiten, die WYSIWYG-Programme nicht haben. So wurde LaTeX beispielsweise für Dokumente entwickelt, die strengen Vorschriften unterliegen was Layout und Formatierung anbelangt. Gerade in den Naturwissenschaften ist LaTeX demzufolge ein sehr beliebtes Programm zur Erstellung von wissenschaftlichen Arbeiten. Und auch wenn die Erstellung eines LaTeX-Dokuments mehr Zeit in Anspruch nimmt und öfter Fehler passieren, so sind doch alle diese Fehler korrigierbar. Durch die Trennung zwischen Inhalt und Form erlangt der User die komplette Kontrolle über die Formatierung seines Dokuments. Gleichzeitig ist es durch eben diese Trennung möglich die Formulierung der Sätze und die Strukturierung und Formatierung des Textes zwei verschiedenen Personen zu überlassen. Der Inhalt des Textes kann dabei mit jedem Textverarbeitungsprogramm verfasst werden. Zudem ist LaTeX kostenlos, während die Lizenzen für Microsoft Word sehr teuer werden können. So unterschiedlich die beiden Programme auch sein mögen, beide erfüllen in vollem Maß die unter 3.1 aufgestellten Anforderungen an ein gutes Schreibwerkzeug. Die Verwendung eines der beiden Programme hängt also ganz von den Erwartungen und Anforderungen des Users ab. Je höher die Anforderungen an die Genauigkeit der Formatierung, umso mehr lohnt sich die Auseinandersetzung mit den umfangreichen Befehlen, die für die Benutzung von LaTeX notwendig sind.

  1. Die Veröffentlichung

veroffentlichen

Der letzte Teil der Veranstaltung befasste sich mit dem Thema „Veröffentlichen“. Dieses Thema ist für Psychologen nicht ganz unbedeutend, denn alle wissenschaftliche Artikel, die im Rahmen des Studiums gelesen werden, mussten zuvor auf irgendeine Art und Weise veröffentlicht werden, um den Studierenden zugänglich gemacht zu werden. Genauso verhält es sich natürlich mit allen wissenschaftlichen Erkenntnissen, allen globalen und lokalen Neuigkeiten, sowie mit allen Informationen, die der Öffentlichkeit zugänglich gemacht werden sollen. Im letzten Abschnitt dieses Blogeintrags soll es also um die Anforderungen an ein Werkzeug zum Veröffentlichen gehen und der Unterschied zwischen persönlichen und wissenschaftlichen Veröffentlichungen besprochen werden.

4.1 Die Ziele beim Veröffentlichen und die Ableitung von Anforderungen an Denkwerkzeuge

Die Ziele, die mit der Veröffentlichung eines Textes verfolgt werden, waren für die anwesenden Seminarteilnehmer so trivial, dass sich zunächst niemand traute sie aufzuzählen, da sie das Gefühl hatten, da müsste etwas Tiefergehendes gesagt werden. Denn das Ziel einer Veröffentlichung liegt relativ schnell auf der Hand: ich möchte, dass mein Schriftstück gelesen wird. Und zwar von so vielen Menschen in so kurzer Zeit wie möglich. Ebenso schnell lassen sich einige Anforderungen an Denkwerkzeuge ableiten, die dem Autoren die Veröffentlichung erleichtern sollen. Zum Beispiel sollte das Werkzeug eine möglichst große Reichweite, also eine große Leserschaft haben, damit möglichst viele Personen erreicht werden können. Zudem sollte das Werkzeug schnell und unkompliziert verfügbar sein, sodass es immer und überall gelesen bzw. gesehen werden kann. Doch die bloße Verbreitung der Information ist nicht das einzige Ziel, das ein Autor bei der Veröffentlichung verfolgen sollte. Mindestens genauso wichtig, in einigen Kontexten sogar noch viel wichtiger ist, dass die durch das Werkzeug erreichten Menschen das Gelesene auch für glaubwürdig halten. Denn eine Information, die nicht ernst genommen wird, wird vermutlich auch schnell wieder vergessen und im Rahmen von wissenschaftlicher Forschung nicht weiter untersucht. Ein weiteres Ziel der Veröffentlichung ist es also die Qualität der dargebotenen Information hervorzuheben. Ein Denkwerkzeug kann helfen dieses Ziel zu erfüllen, indem es z.B. die eingegangenen Beiträge überprüft.

Die Anforderungen an ein Werkzeug zum Veröffentlichen lassen sich folgendermaßen zusammenfassen:

  • Hohe Reichweite und Frequenz
  • Schnelle und unkomplizierte Verfügbarkeit
  • Prüfung der Qualität der Beiträge
  • Auszeichnungen und „guter Ruf“

4.2 Werkzeuge zum Veröffentlichen

werkzeuge-zum-veroffentlichen

Die älteste Form der Weitergabe von Informationen (und zu nichts anderem dient  ja die Veröffentlichung) ist zweifelsohne die mündliche Übermittlung von Nachrichten. Mit der Verbreitung der Schriftsprache konnten Informationen auch schriftlich übermittelt werden. Diese Form der Kommunikation und Wissensvermittlung wurde bereits bei den Babyloniern, sowie den alten Griechen und Römern eingesetzt, die sich Ton- bzw. Holztafeln hin- und herschickten. Aus dieser Methodik entwickelten sich später komplexe Postsysteme, mit denen Briefe auf verschiedenste Art und Weise überbracht wurden. Zudem wurden selbstverständlich Bücher für die Weitergabe von Wissen verwendet. Auch für die Veröffentlichung von Informationen stellte die Erfindung des Buchdrucks 1445 eine entscheidende Wendung dar. Bücher konnten nun in viel größerer Zahl in kürzerer Zeit produziert werden. Zudem ermöglichte der Buchdruck die Etablierung der Zeitungen und Zeitschriften als neue Medien in der Gesellschaft. Und bei diesen Formen der Medien sollte es nicht bleiben, heute gehören Fernsehen und Radio bereits wieder zu den älteren Möglichkeiten der Veröffentlichung. Eine große Fläche für die Veröffentlichung von Wissen findet sich im Internet, sei es für die Verbreitung von persönlichen oder wissenschaftlichen Informationen. Einige dieser Möglichkeiten sollen nun kurz vorgestellt werden.

4.2.1 persönliche Veröffentlichungen

Besonders beliebt für die Veröffentlichung von privaten Gedanken, Erlebnissen oder Gefühlen sind Blogs und Microblogs. Bei diesen Werkzeugen handelt es sich um Internetplattformen, auf denen sich der User mit einem Konto anmeldet, um darüber eine eigene Seite zu erstellen, auf der er seine persönlichen Inhalte veröffentlichen möchte. Die Registrierung ist dabei kostenlos. Geschrieben wird dabei über jegliche Themen, die die Blogger bewegen. Besonders beliebt sind Blogs zu Auslandsaufenthalten, Sport und Mode. Microblogs weisen eine ähnliche Struktur auf wie die Blogs, nur sind ihre Einträge wesentlich kürzer. Während ein normaler Blogeintrag viele A4-Seiten umfasst, beträgt die Länge eines Microblogeintrags nur etwa die Länge einer herkömmlichen SMS. Beispiele für Microblogs sind unter Anderem Twitter, Tumblr und Squirrly. Die vorherrschenden werkzeuge für Blogs sind derzeit WordPress und Blogspot.

4.2.2 wissenschaftliche Veröffentlichungen

Für die Veröffentlichung von wissenschaftlichen Artikeln taugen die oben genannten Werkzeuge vermutlich nicht allzu viel. Ihre Reichweite ist zwar hoch, doch die Zielgruppe, die sich für diese Art von Informationen interessiert ist zu spezifisch für ein solches Werkzeug. Zudem spielt bei der Veröffentlichung von wissenschaftlichen Erkenntnissen auch die Qualität der Informationen eine wichtige Rolle. Aus diesem Grund gibt es beispielsweise in der Psychologie spezifische Zeitschriften, die sich mit der Forschung in den speziellen Fachbereichen auseinandersetzen. Diese Zeitschriften unterliegen strengen Standardisierungsvorschriften wie z.B. den APA-Richtlinien und führen Qualitätsprüfungen der von den Autoren eingereichten Artikel durch. Die gängigste Form der Qualitätssicherung stellt dabei der Peer-Review-Prozess dar, bei dem andere Wissenschaftler desselben Forschungsgebietes die Arbeit ihrer Kollegen ehrenamtlich überprüfen. Das Ergebnis der Prüfung wird dem Verlag der Zeitschrift mitgeteilt und je nach Urteil der Gutachter wird der Artikel aufgenommen oder nicht. Die drei wichtigsten Voraussetzungen für die Veröffentlichung eines Artikels in einer Zeitschrift sind dabei Transparenz, Verständlichkeit und die Reproduzierbarkeit der Ergebnisse.

Die Veröffentlichung in Fachzeitschriften ist jedoch nicht die einzige Möglichkeit, um Forschungsdaten der Öffentlichkeit zugänglich zu machen. Seit den 90er jahren gibt es eine kostenlose Publikationsmethode, die als Open Access bezeichnet wird. Diese entstand im Kontext der immer weiter steigenden Preise für wissenschaftliche Artikel, an denen die Verlage mehr Geld verdienten als es in den Augen der Autoren zulässig war. Um den Zugang zur Wissenschaft wieder für jeden zu öffnen wurde damit begonnen, die wissenschaftlichen Artikel kostenlos in elektronischen Zeitschriften, Archiven oder auf privaten Websites zu veröffentlichen. Je nach Nutzungslizenz des Lesers können die dort abgelegten Dateien gelesen, heruntergeladen, gespeichert oder gedruckt werden. Die Kostenträger des Open Access Verfahrens sind zumeist die Autoren selbst und in einigen elektronischen Zeitschriften, in denen Open Access stattfindet, wird von ihnen sogar der Peer-Review-Prozess durchgeführt. Dieser „Rebellion“ der Autoren gegen eine Privatisierung von allgemein zugänglichem Wissen verdanken wir heute eine erleichterte Verfügbarkeit von wissenschaftlicher Literatur.

Quellenangabe:

http://www.presentationworld.de/powerpoint/geschichte-von-powerpoint/powerpoint.php

https://de.wikipedia.org/wiki/Microsoft_PowerPoint

https://prezi.com/about/

https://en.wikipedia.org/wiki/Keynote_(presentation_software)

Word oder LaTeX – Was ist besser?

https://de.wikipedia.org/wiki/LaTeX

http://www.bretschneidernet.de/tips/thesislatex.html

https://de.wikipedia.org/wiki/Open_Access

http://www.jetzt.de/lexikon/wie-kann-ich-meine-abschlussarbeit-veroeffentlichen-573196

Sammeln und Strukturieren – Bewältigung der Informationsflut mithilfe von Verzettelungstechnik und Mapping-Verfahren

„Du weißt, wie leicht es ist, Fakten zu sammeln, und wie schwer, sie zu ordnen.“ Caspar Wolf, Herausgeber der Werke Gesners (Haarkötter, 2013)

Vor dem Hintergrund der sich ständig weiterentwickelnden digitalen Informations-technologie und der damit einhergehenden, rasant zunehmenden Informationsmenge, scheint dieses Problem der Wissensorganisation auf den ersten Blick ein modernes zu sein. Und doch erkannte bereits der Basler Gelehrte Caspar Wolf (Haarkötter, 2013) aber auch Personen, die einer noch früheren Epoche angehörten (Kunze, 2002), welche Schwierigkeiten die Informationsflut bei der persönlichen Wissensorganisation mit sich bringt.

Da unser Gehirn alleine, trotz all seiner komplexen Funktionen nicht ausreicht, die stetig wachsende Masse an Informationen sowohl effizient als auch effektiv nutzen zu können, werden ständig neue Instrumente und Techniken entwickelt, die unsere Denkprozesse unterstützen und somit helfen sollen, das eigene Wissensmanagement zu optimieren. In dem Beitrag von muehlenm wurden in diesem Zusammenhang Instrumente vorgestellt, die uns das Suchen von Informationen erleichtern. Der folgende Beitrag geht nun einen Schritt weiter und wird die Thematik des Sammelns und Strukturierens der gefundenen Informationen näher betrachten. Hierbei soll die Verzettelungstechnik und der Zettelkasten von Niklas Luhmann sowie zwei weitere berühmte Denkwerkzeuge, das Mind-Mapping und das Concept-Mapping und das weniger bekannte IMapping vorgestellt werden.

Da diese Auswahl sehr selektiv ist und bei weitem nicht alle existierenden Denkwerkzeuge umfasst, ist abschließend eine Tabelle von Wessel (2012) mit weiteren Denkwerkzeugen zum Sammeln und Strukturieren zu finden.

Orientierung im Dschungel der Möglichkeiten

Wie findet man bei der Fülle an möglichen Denkwerkzeugen das passendste Instrument für sich beziehungsweise für seinen Bedarf? Ein neues Denkwerkzeug zu finden, sich in die Bedienung einzuarbeiten und es in den eigenen Workflow zu integrieren benötigt Zeit und ein gewisses Maß an Geduld. Aus persönlicher Erfahrung soll an dieser Stelle ein Schritt zurückgegangen werden, um vor Benutzung eines neuen Instruments zu folgenden Vorüberlegungen anzuregen und die Wahl oder nicht-Wahl zu unterstützen.

Vor Beginn der Suche lohnt es sich, sein bestehendes Wissensmanagement zu hinterfragen, um individuelle Anforderungen an das zukünftige Denkwerkzeug herzuleiten: Welche Denkwerkzeuge verwendet man bereits, um Informationen zu sammeln und zu strukturieren? Warum und für welchen Zweck wird ein neues Denkwerkzeug benötigt? Welche Funktionen vermisst man bei seinen aktuellen Tools? Welche Verbesserung ist bei der Verwendung eines neuen Instruments zu erwarten? Wann  und wie soll das Instrument zum Einsatz kommen (Reicht es, wenn man z.B. nur von seinem Computer aus Zugriff auf das Werkzeug hat oder muss es jederzeit zugänglich sein?) Wie viel Zeit ist man bereit, in die Einarbeitung zu investieren? …

Hat man sich dann endgültig dafür entschieden, sich auf die Suche nach einem neuen Denkwerkzeug zu machen, können die folgende Hinweise von Wessel (2012, S. 200) bei der Auswahl weiterhelfen:

  • Denkwerkzeuge unterstützen nur unsere Denkprozesse, sie können uns nicht das Denken abnehmen. Um Informationen zu Wissen zu verarbeiten, benötigt es weiterhin die eigene Denkleistung.
  • Das Tool muss zum Benutzer und zu der Aufgabe passen, für die das Instrument verwendet werden soll. Es nützt wenig, sich von dem Image des Instruments oder der Person, die es benutzt leiten zu lassen.
  • Können die Optionen des Tools an den eigenen Bedarf angepasst werden? Einige Werkzeuge enthalten viele zusätzliche Funktionen, die man nicht braucht, aber vom Wesentlichen ablenken können.
  • Das Tool sollte sich gut in das bestehende Wissensmanagement integrieren lassen.
  • Ein Denkwerkzeug ist nur so gut wie die Person, die es benutzt. Es braucht häufig vor allem zu Beginn Zeit und Übung, um Erfahrung im Umgang mit dem Tool zu sammeln. Der Aufwand für dessen Bedienung sollte irgendwann geringer werden und die Denkprozesse nicht mehr unterbrechen.
  • Das Tool sollte es ermöglichen, Dateien leicht exportieren und importieren zu können – und das auch in andere Formate. Nur so kann gesichert werden, dass die eigenen Dateien nicht verloren gehen, wenn das Instrument zum Beispiel nicht mehr vom Anbieter oder dem Computersystem unterstützt wird oder man den Account verliert etc.
  • Es ist ratsam, zuerst ein kostenloses oder günstiges Tool auszuprobieren und damit zu experimentieren, bevor man eine teure Lizenz erwirbt. Hat man für sich festgestellt, dass das Tool nicht seinen Vorstellungen entspricht, umgeht man so einer Fehlinvestition.
  • Man kann auch sein eigenes Tool entwerfen. Ein gutes Beispiel wäre der Hipster PDA von Merlin Mann.

Wo stand das noch mal? – Verzettelungstechnik und Zettelkasten

Eine unserer wichtigsten (persönlichen) Ressourcen ist Zeit. Mit Zunahme der technischen Errungenschaften zur Erzeugung und Verbreitung von Informationen überstieg die Informationsflut mit der Zeit „[…] das Angebot des verfügbaren Wissens die Summe der zur Wissensaneignung verfügbaren Zeit […]“. (Haarkötter, 2013)

Dieser sogenannte „information overload“ (ebd.) verlangte spätestens seit der Erfindung des Buchdrucks im 16. Jahrhundert neue Techniken zur Verwaltung von Informationen und Wissen. Im 19. Jahrhundert schließlich setzte sich der Zettelkasten als berühmteste Verwaltungstechnologie seiner Zeit durch. Der Zettelkasten beruht auf der Methode des Verzettelns: Nützliche Informationen werden auf einem Zettel notiert und an einem bestimmten Ort (es muss nicht zwingend ein Zettelkasten sein) gesammelt, um sie anschließend weiter verarbeiten zu können. Der Zettelkasten ist ein Instrument, der eine systematische Aufbewahrung der auf Zettel festgehaltenen Informationen ermöglicht. Er kam unter anderem für die Erstellung vieler literarischer und wissenschaftlicher Arbeiten berühmter Personen zum Einsatz. Der Jurist und Schriftsteller Johann Jacob Moser (1701 – 1785)  zum Beispiel nutzte die Verzettelungstechnik und veröffentlichte sogar ein Buch über seine persönliche Methodik im Umgang mit dem Zettelkasten – damit war er einer der ersten Theoretiker des Zettelkastens. (ebd.)

Niklas Luhmanns Zettelkasten

zettelkasten-von-niklas-luhmann-presse-2

Abb. 1: Niklas Luhmanns Zettelkasten (Quelle: Universität Bielefeld / Ullstein Bild)

 

Neben Moser, war Niklas Luhmann (1927-1998) eine weitere berühmte Person, die sich den Zettelkasten zu Nutze machte. Er bezeichnete ihn  als „Denkwerkzeug“ (Schmidt, 2014, S.168) und gleichzeitig als sein „Zweitgedächtnis“ (ebd., S.186). Luhmann war Soziologe, Pädagoge, Rechts- und Verwaltungswissenschaftler und Mitbegründer der ersten soziologischen Fakultät Deutschlands an der Universität Bielefeld. Zudem ist er der bekannteste Vertreter der Systemtheorie und veröffentlichte zahlreiche Schriftwerke. Nach jahrelangem Streit um seinen Nachlass, war es der Universität Bielefeld 2011 möglich, die Rechte an seinen wissenschaftlichen Hinterlassenschaften zu sichern. Damit die Universität mit der Erforschung seines Zettelkastens beginnen kann, haben sie 2015 begonnen, die insgesamt 90.000 Notizen – Gedanken und Überlegungen von über vierzig Jahren – zu digitalisieren. (Fasel, 2015) Das Besondere an seinem Kasten ist unter anderem sein selbst entwickeltes Nummernsystem, welches es erlaubt, Themengebiete endlos mit neuen Zetteln zu erweitern und auf andere Zettel zu verweisen. Die Nummerierung war hierarchisch. Zudem erstellte er ein Personen- und Schlagwortregister. (Schmidt, 2014)

Der Zettelkasten ist also ein Denkwerkzeug, mit dem Notizen, Ideen und Zitate so archiviert werden, dass sie zum einen leicht wiedergefunden werden können und es zum anderen möglich ist, durch die Verweisungen untereinander neue Zusammenhänge zu erzeugen, weshalb er zudem auch als Kreativitätswerkzeug bezeichnet werden kann.(Haarkötter, 2013) Somit hat dieses Instrument nicht nur die Funktion des Informationsmanagements sondern auch des Wissensmanagements, das durch Zuweisung von Schlagworten und dem Verweisungssystem ermöglicht, neue Sinneszusammenhänge zu erzeugen.

Wem die Technik des Zettelkastens zusagt, findet in digitalen Zettelkästen eine elektronische Alternative zur Verwaltung von Zitaten, Texten, Grafiken, Tabellen uvm. Kunze (2002) nennt Daniel Lüdeckes Zettelkästen und Synapsen als bekannte Vertreter des deutschsprachigen Raumes.

Mapping-Verfahren

Mappingverfahren sind Techniken zur Visualisierung von Informationen. Durch die Visualisierung wird unser Orientierungssinn angesprochen, da es unserem Gehirn wesentlich leichter fällt, räumliche Positionen auseinanderzuhalten. (Haller, 2004)

Mappingverfahren können eingesetzt werden, um sich einen Überblick über ein Gebiet zu verschaffen, um Inhalte, zum Beispiel einer Vorlesung, zu strukturieren, um vorhandene Strukturen darzustellen, um Ideen zu sammeln, eine neue Sichtweise auf ein bestimmtes Problem zu bekommen oder zum Lernen. (Wessel, 2012) Umgesetzt werden können diese Verfahren mit Stift und Zettel oder mit einem Computerprogramm.

Im Folgenden sollen zwei der wohl bekanntesten Verfahren vorgestellt werden: MindMaps, welche von Tony Buzan und Concept Maps, welche von Joseph D. Novak entwickelt wurden. (Haller, 2004) Zusätzlich soll das Programm IMapping, entwickelt von Heiko Haller, vorgestellt werden, da dieses Werkzeug beide Techniken digital vereint und es ermöglicht, einen Überblick über Informationszusammenhänge herzustellen sowie Informationen untereinander zu vernetzen. Wie die Verzettelungstechnik der Zettelkästen, unterstützen auch diese Verfahren das persönliche Informations- und Wissensmanagement sowie die Erzeugung neuer Sinneszusammenhänge.

Mind-Mapping

Tony Buzan hat diese Technik in den späten 1960er Jahren entwickelt. Auf seiner Homepage werden neben dem Mind-Mapping noch weitere Gedächtnistechniken vorgestellt sowie Kurse und ein Programm zum digitalen Mind-Mapping angeboten.

Zum traditionellen Mindmapping wird lediglich ein leeres Blatt Papier, bunte Stifte und – wer nicht gerne malt oder kein guter Zeichner ist – Bilder und oder Fotos benötigt. Die Methode des Mindmapping sollte ursprünglich als Kreativtechnik zum Brainstorming eingesetzt werden, aber man kann sie genauso gut als Übersicht verwenden, um komplexe Inhalte zu verstehen, um Ideen zu ordnen oder als Mittel zur Erstellung einer To Do Liste, zur Konzeptentwicklung und zum Lernen nutzen. Sie kann aber auch als Notizblock dienen, da sich damit Ideen schnell und einfach festhalten lassen. (Haller, 2004, Wessel, 2012)

Wie wird beim Erstellen einer traditionellen Mind Map vorgegangen? Die Mind Map ähnelt einer aufgefächerten Baumstruktur, was in den Bezeichnungen der einzelnen Elemlente der Mind Map deutlich wird. In einem ersten Schritt schreibt man das zentrale Thema in die Mitte des Blattes und oder man verwendet ein zum Thema passendes Bild oder Symbol. Anschließend werden ausgehend von dem zentralen Thema „Äste“ in alle Richtungen abgezweigt, an denen die alle mit dem Hauptthema zusammenhängenden Konzepte oder Hauptideen stehen. Die „Äste“ werden abhängig von ihrer Hierarchie immer dünner gezeichnet. An diese sogenannten Unteräste oder Zweige stehen dann Stichwörter, kleine Stichpunkte oder Bilder. Zudem können auch Querverbindungen zwischen den Zweigen mittels Pfeilen erzeugt werden, um Zusammenhänge zwischen den Elementen zu spezifizieren, allerdings verliert man bei zu vielen Pfeilen schnell den Überblick. Die Äste sollen kurvig gezeichnet werden und es wird empfohlen, Farben einzusetzen, um das Gehirn nicht zu „langweilen“. (Buzan.com, 2016, Haller, 2004)

mindmap

Abb. 2: Beispiel einer Mind Map (Quelle: deepametha.de)

Wer lieber digitale Mind Maps erstellen möchte, für den gibt es natürlich entsprechende Computerprogramme, wie zum Beispiel: freemind, xmind, mind42, mindmeister, IMindMap

Concept-Mapping

Die Concept-Mapping Methode wurde von Joseph D. Novak in den 1960er Jahren entwickelt. Wie beim Mind-Mapping, gibt es auch für das Concept-Mapping die Möglichkeit, mit Zettel und Stift oder mit Hilfe eines Computerprogrammes zu arbeiten. Im Gegensatz zum Mind Mapping steht die Verknüpfung von Informationen beim Concept Mapping im Mittelpunkt. (Haller, 2002)

So besteht die Concept Map aus Knoten und Verbindungen und wird hierarchisch von oben nach unten aufgebaut, wobei der zentrale Begriff ganz oben steht – es muss aber nicht zwingend ein eindeutiges Zentrum geben. Die Knoten sind oval oder kästchenförmig und werden mit einem oder mehreren Wörtern oder einem Symbol gefüllt. Zwischen den Knoten stellt man mittels Pfeilen Verbindungen zwischen den Knoten her. Die Beziehungen zwischen den Knoten werden in Form von einfachen Sätzen spezifiziert. (Haller, 2002) Mit dieser Technik lassen sich komplexe Themenbereiche inhaltlich abbilden, neue Ideen produzieren und sie können beim Lernen unterstützen.  Zudem dienen sie der Wissensvermittlung, denn durch die Spezifikation der Beziehungen untereinander, sind Concept Maps relativ selbsterklärend und man kann sich so mit anderen Lernenden austauschen und Wissenslücken aufdecken. (Kunze, 2002)

figure-1-a-concept-map-showing-the-key-features-of-concept-maps-3

Abb. 3: Beispiel einer Concept Map (Quelle: mindmappingsoftwareblog.com)

IMapping

Heiko Haller entwickelte die Methode des iMapping und schrieb für seine Doktorarbeit im Fach Informatik im Jahre 2011 das Programm iMap. Das iMapping-Verfahren integriert die Ansätze der Mind-Mapping – und Concept-Mapping – Verfahren. Optisch orientiert sich die iMap an einer Pinnwand, auf der große Mengen von Informationen strukturiert, miteinander verknüpft und mithilfe einer Suchfunktion abgerufen werden können. Zudem hat sie den Vorteil, durch hierarchische Verschachtelungen und der Möglichkeit, in die Tiefe zoomen zu können, beliebig groß zu werden. Die iMap kann für ganz unterschiedliche Zwecke eingesetzt werden. Man kann mit ihrer Hilfe, Lernstoff visuell abbilden, sich Überblick über ein Projekt verschaffen, Ergebnisse, Quellen und Argumente für eine Forschungsarbeit sammeln und in Beziehung setzen uvm..

Die kostenlose Version kann unter folgendem Link heruntergeladen werden. Wenn man mehr als 300 Kärtchen pro iMap benötigt, seine Daten nicht nur im HTML-Format sondern auch im SVG- oder PDF-Format exportieren sowie die Version auf mehreren Rechnern installieren und persönlichen Support eines Experten erhalten möchte, kann gegen Bezahlung eine Standard-Lizenz für 99,00€ oder eine Professional-Lizenz für 299€ erwerben. Gegen Nachweis erhält man als Studierender die Standard-Lizenz bereits für 30,00€.

Zur Bewertung der iMap nach zweimonatiger Benutzung der kostenlosen Version: Ich bin durch dieses Seminar auf die iMap aufmerksam geworden und habe sie bei der Erstellung von zwei Referaten mit in meine Wissensorganisation eingebunden. Auf den ersten Blick hat mich das Tool an die Präsentationssoftware Prezi erinnert. Und man könnte sie theoretisch auch als Präsentationstool für Referate einsetzen, allerdings ist das Design – insbesondere im Vergleich zu Prezi – noch sehr verbesserungswürdig. Hauptsächlich kam die iMap bei mir zum Einsatz, um Ideen zum Thema festzuhalten und in eine Reihenfolge zu bringen sowie hilfreiche Links unter den entsprechenden Ideen abzulegen. Die Bedienung ist sehr intuitiv und durch vorprogrammierte Tastenkürzel können Ideen oder Informationen sehr schnell hinzugefügt werden, wodurch mein Gedankenfluss nicht unterbrochen wurde. Die Tastenkürzel haben sich bei mir sehr schnell eingeprägt. Die Pfeile, mit denen man die Informationen untereinander verknüpfen kann, können beschriftet werden und sind nur dann sichtbar, wenn man mit dem Pfeil über die entsprechende Information geht oder einstellt, dass man alle Pfeile sehen möchte. So bleibt alles sehr übersichtlich. Die Funktion der Pfeile sind bei mir allerdings nur sehr selten zum Einsatz gekommen. Als Nachteil sehe ich, dass man bei kleinen Laptops ab einem bestimmten Punkt beim herauszoomen die Inhalte nicht mehr erkennt, was ein Problem beim Verknüpfen von Kästchen ist. Ich habe die Beziehung der einzelnen Ideen untereinander hauptsächlich durch die Anordnung der Kästchen visuell dargestellt. Sehr positiv fand ich, dass man die Kästchen beliebig weit zuklappen, verschieben und kopieren kann. Auch diese Funktion war sehr hilfreich, um meinen Gedankenfluss zu unterstützen. Insbesondere bei sehr großen iMaps kann die Suchfunktion helfen, bestimmte Informationen wiederzufinden. Einen Nachteil, insbesondere, wenn man dieses Tool zum Ideensammeln verwendet, ist der, dass man nur über den Laptop oder PC, auf dem man das Programm installiert hat, zugreifen kann.

imap

Abb. 4: Screenshot eines iMap (Quelle:imapping.info)

Take Home Messages

  • Um ein geeignetes Denkwerkzeug zu finden, sollte man im Vorherein sein bestehendes Wissensmanagement hinterfragen und Anforderungen an das Denkwerkzeug festlegen.
  • Denkwerkzeuge können uns nicht das Denken abnehmen. Dass aus Informationen Wissen wird, kann nur durch eigene Denkleistung erreicht werden.
  • Der Zettelkasten unterstützt die Methode des Verzettelns und ermöglicht es, Informationen auf Zetteln systematisch zu sammeln, zu verknüpfen und abzurufen.
  • Niklas Luhmann bezeichnete seinen Zettelkasten als Zweitgedächtnis.
  • Die Besonderheit des Zettelkastens von Luhmann liegt unter anderem in dem von ihm entwickelten Nummernsystem, dass es ermöglicht, Zettel untereinander zu verweisen, und Themengebiete endlos mit neuen Zetteln zu erweitern sowie neue Sinneszusammenhänge zu erzeugen.
  • Mapping-Verfahren sind Techniken zur Visualisierung von Informationen.
  • Zu den berühmtesten Mapping-Verfahren zählt die Mind Map von Tony Buzan und die Concept Map von Joseph D. Novak.
  • Das von Heiko Haller entwickelte iMapping – Verfahren integriert die Ansätze der Verfahren des Mind-Mappings und Concept-Mappings.

Abb. 5: Screenshot aus Wessel (2012, S. 133-134) mit weiteren Denkwerkzeugen und dessen Vor- und Nachteile.

Weiterführende Literatur

Fasel, A. (2015). Ein Zettelkasten war Luhmanns zweites Gehirn. Abgerufen am 20.12.2016, von welt.de: https://www.welt.de/regionales/nrw/article143147819/Ein-Zettelkasten-war-Luhmanns-zweites-Gehirn.html

Haarkötter, H. (2013). Alles wesentliche findet sich im Zettelkasten. Abgerufen am 20.12.2016, von heise.de: https://www.heise.de/tp/features/Alles-Wesentliche-findet-sich-im-Zettelkasten-3398418.html

Haller, H. (2004). Mappingverfahren. Abgerufen am 26.12.2016, von community-of-knowledge: http://www.community-of-knowledge.de/beitrag/mappingverfahren/

Haller, H. (2002). Mappingverfahren zur Wissensorganisation (Doctoral dissertation, Diplomarbeit). Abgerufen am 20.12.2016, von heikohaller: http://www.heikohaller.de/literatur/diplomarbeit/Mappingverfahren_zur_Wissensorganisation_Haller.pdf?attredirects=0

Kunze, J. (2012). Digitale Werkzeuge für die persönliche Wissensorganisation. cms-journal35. Abgerufen am 20.12.2016, von hu-berlin: edoc.hu-berlin.de/cmsj/35/kunze-jana-37/PDF/kunze.pdf

Schmidt, J. F. (2014). Der Nachlass Niklas Luhmanns–eine erste Sichtung: Zettelkasten und Manuskripte. Soziale Systeme19(1), 167-183. Abgerufen am 20.12.2016, von uni-bielefeld: http://www.uni-bielefeld.de/soz/luhmann-archiv/pdf/jschmidt-aus-dem-archiv.pdf

Tony Buzan: Inventor of Mind Mapping (k.A.). Abgerufen am 28. 12. 2016, von tonybuzan: http://www.tonybuzan.com.

Wessel, D. (2012). Organizing Creativity (2nd ed.). Create Space. Abgerufen am 26.12.2016, von organizingcreativity: http://www.organizingcreativity.com/oc2_1p.pdf

 

 

 

 

 

Methoden der Usability Evaluation

Einleitung

Die heutige Welt wird zunehmend dominiert von technischen Geräten. Gerade im privaten Gebrauch werden zunehmend technische Geräte verwendet. Beim Kauf eines Produkts hat der Nutzer die Qual der Wahl. Die Auswahl an unterschiedlichen Smartphones, Kaffeemaschinen oder Funkweckern ist häufig erschlagend. Unterschiede zwischen den einzelnen Geräten bestehen dabei nicht nur im Aussehen und Anzahl der Funktionen, sondern auch in der Art der Bedienbarkeit und der Nutzerfreundlichkeit (Usability). In der vorliegenden Abhandlung werden grundlegende Themen der Usability besprochen und diskutiert. Nach einer einführenden Definition geht es zunächst um die Methoden der Usability-Evaluation. Im weiteren Verlauf der Arbeit wird auf Usability im Kontext des World Wide Web eingegangen.

Definition von Usability

Hinter dem Schlagwort Usability verbergen sich eine Reihe von Perspektiven und Ansätzen. Deutlich wird dies u.a. in den unterschiedlichen Übersetzungen des Begriffs, die von Nutzbarkeit, Nutzerfreundlichkeit über Gebrauchstauglichkeit gehen. Eine allgemeingültige Definition von Usability findet sich in der ISO-Norm 9241: „Usability bezeichnet das Ausmaß, in dem ein Produkt durch bestimmte Benutzer in einem bestimmten Nutzungskontext genutzt werden kann, um bestimmte Ziele effektiv, effizient und mit Zufriedenheit zu erreichen.“

Die oben genannte Definition betont, dass Usability immer im Kontext von bestimmten Nutzungsbedingungen und Zielgruppen betrachtet werden muss. Unterschiedliche Nutzungsbedingungen und Zielgruppen führen zu extrem heterogenen Anforderungen an ein technisches Gerät. Dementsprechend kann die Usability eines Gerätes nicht global bestimmt werden, sondern muss individuell für spezifische Nutzungskontexte und Zielgruppen gemessen werden. Betrachtet man ein Gerät mit Sprachsteuerung, wird die Abhängigkeit vom Nutzungskontext deutlich. Die Usability dieses Geräts wird in einem ruhigen Arbeitskontext deutlich höher sein als in einer lärmintensiven Umgebung.

Usability-Evaluation

Evaluation beschreibt die systematische und möglichst objektive Bewertung eines geplanten, laufenden oder abgeschlossenen Projekts. Bei der Usability-Evaluation wird demnach das Ausmaß an Usability mit möglichst objektiven Bewertungsmethoden gemessen. Das Ausmaß an Usability eines Produkts in nicht sichtbar, sondern wird erst in realen Nutzungssituationen deutlich. Weiterhin sind Kriterien notwendig, um Usability wissenschaftlich messbar zu machen. Dafür eignen sich zum Beispiel die drei Kerngrößen der Usability Effektivität, Effizienz und Zufriedenheit. Diese Kerngrößen beschreiben, wie ein technisches Gerät zur Zielerreichung beitragen und wie das Zielergebnis aussehen sollte. Effektivität beinhaltet die Genauigkeit und Vollständigkeit, mit der Benutzer ein bestimmtes Ziel erreicht. Effizienz bedeutet, dass der Benutzer zum Erreichen seines Ziels den geringstmöglichen Einsatz benötigt. Zufriedenheit entsteht, wenn die Erwartungen des Benutzers bezüglich des Ziels erreicht oder übertroffen werden.

Usability-Evaluation umfasst eine Vielzahl von Methoden und Ansätzen. Global werden formative und summative Evaluation unterschieden. Während bei der summativen Evaluation gegen Ende des Entwicklungsprozesses das fertige Produkt evaluiert wird, kommt die formative Evaluation bereits während der Entwicklung zum Einsatz.

Nach wie vor, stellt sich die Frage, wie Usability-Evaluation ganz praktische bei der Produktion eines technischen Geräts zum Einsatz kommen sollte. Die oben genannte Definition von Evaluation, zeigt uns, dass Evaluation zu verschiedenen Phasen der Produktentwicklung zum Einsatz kommen sollte. Im Folgenden wird näher darauf eingegangen, wie Usability-Evaluation in die Produktentwicklung integriert werden sollte.

Usability-Evaluation in der Produktentwicklung

Usability-Evaluation bleibt in der Entwicklung von neuen technischen Systemen nicht selten auf der Strecke. In vielen Firmen gilt Usability-Evaluation als ein optionales Instrument, welches zusätzliche Kosten verursacht. Aus dieser Einstellung heraus, werden Systeme häufig gar nicht evaluiert, bzw. erst in einer Phase, in der bereits Prototypen existieren. Zeigen sich bei Evaluationen in einer derartig späten Entwicklungsphase Usability-Probleme, kommt es nicht selten zu folgendem Dilemma: Auf der einen Seite fordern die Ergebnisse der Usability-Evaluation bestimmte Anpassungen und Verbesserungen des Produkts. Auf der anderen Seite sind diese Anpassungen jedoch mit erheblichen Kosten verbunden. Zudem sind die Verantwortlichen häufig nicht bereit, das eigene Produkt als unzureichend anzuerkennen. Nicht zuletzt verzögern Nachbesserungen die Markteinführung des Produkts. In der Realität werden Usability-Probleme nicht selten ignoriert nach dem Motto: „Lieber ein pünktlicher Hüftschuss, als ein verspätetes optimiertes Produkt“.

Der Ausweg aus diesem Dilemma besteht darin, Usability-Evaluation im Rahmen der Produktentwicklung einen hohen Stellenwert beizumessen. Bestenfalls stellt die Evaluation innerhalb der Produktentwicklung keine gesonderte Phase dar, sondern eine Aktivität die alle Produktionsphasen begleitet. Dieses Vorgehen ist in Abbildung 1 dargestellt. Die Abbildung zeigt, dass Nutzer sehr früh in die Produktentwicklung mit einbezogen werden sollten. Arbeits- und Anforderungsanalysen helfen den Nutzungskontext und die gestellten Anforderungen der Zielgruppe an das Produkt zu erfassen. Auf der Basis der Analyseergebnisse finden in der Konzeptphase erste Produktentwürfe auf Papier statt. Diese Entwürfe sollten bereits hinsichtlich Usability-Problemen evaluiert werden. In der Entwicklungsphase wird das erstellte Konzept erstmalig umgesetzt, sodass erste Prototypen von Mitgliedern der Zielgruppe getestet werden können. Schließlich sollten die Ergebnisse von Pilotstudien, bei denen das Produkt in Firmen implementiert wird ebenfalls evaluiert werden.

1

Abbildung 1: Usability-Evaluation im Produktentwicklungsprozess

Zu der Abbildung 1 ist anzumerken ist, dass hier ein idealisierter Produktionsablauf darstellt wird. In der Regel ist ein iteratives Vorgehen notwendig, bei dem auftauchende Usability-Probleme zu einem Rückschritte auf eine frühere Entwicklungsphasen führen. Mit jeder Iteration verbessert sich das Produkt. Dieser iterative Prozess sollte im Idealfall bis zur Fertigstellung des Produkts beibehalten werden.

Um den Prozess der Usability-Evaluation zu konkretisieren, werden im Folgenden unterschiedliche Methoden der Usability-Evaluation dargestellt.

Methoden der Usability-Evaluation

Innerhalb der Methoden der Usability-Evaluation lassen sich expertenorientierte und benutzerorientierte Methoden unterscheiden. Während bei expertenorientierten Methoden Experten als Gutachter fungieren, die sich in die Rolle der Nutzer hineinversetzen, kommen bei den benutzerorientierten Methoden Mitglieder der Zielgruppe als Testpersonen zum Einsatz. An dieser Stelle ist zu betonen, dass sämtliche Evaluationsmethoden sowohl Vorteile als auch Nachteile beinhalten. Jede Methode kann jeweils nur bestimmte Aspekte von Usability messen, andere bleiben unbeachtet. Eine qualitativ hochwertige Evaluation zeichnet sich dementsprechend durch eine Kombination verschiedener Evaluationsmethoden aus.

Nachfolgend werden zunächst zwei expertenorientierte Verfahren (heuristische Evaluation, cognitive Walkthrough) und anschließend einige benutzerorientierte Verfahren (Fragebogen-Verfahren, Fokusgruppen, Usability-Tests) beschrieben.

Heuristische Evaluation

Bei der heuristischen Evaluation überprüfen Experten ein Produkt oder einen Produktentwurf auf die Einhaltung bestimmter Usability-Heuristiken. Usability-Heuristiken sind anerkannte Prinzipien der Systemgestaltung, deren Einhaltung in der Regel ein hohes Maß an Usability impliziert. Verstöße gegen diese Heuristiken dienen als Ansatzpunkt für Nachbesserungen.

Cognitive Walkthrough

Im Rahmen des cognitive Walkthrough wird die Gebrauchstauglichkeit eines Produkts von Experten überprüft. Evaluiert werden soll, ob unerfahrene Benutzer in der Lage sind, die Bedienung und die Funktionsmöglichkeiten des Produkts schnell zu erlernen. Hinter dieser Methode steht die Beobachtung, dass Nutzer im Kontakt mit unbekannten technischen Systemen ein explorierendes Lernen gegenüber Handbüchern bevorzugen. Im Fokus des cognitive Walkthrough steht somit die Erlernbarkeit der Produktbedienung, als ein Indikator für die Usability. Dieses Kriterium wird folgendermaßen überprüft:

Zunächst entwickeln die Produktentwickler eine Reihe von Aufgaben, die mit dem System ausgeführt werden sollen. Für jede Aufgabe werden Ideallösungen erarbeitet, d.h. eine Reihenfolge von Handlungsschritten. Im Folgenden überprüfen Experten, in wieweit die gegebene Systemgestaltung den Nutzer in der Umsetzung der Ideallösung unterstützt oder behindert.

Fragebogenverfahren

Mit Hilfe von Fragebögen können große Nutzer-Stichproben in die Evaluation eines Produkts einbezogen werden. Dabei steht die subjektive Bewertung der Usability durch den Nutzer im Fokus des Interesses.

Fokusgruppen

Fokusgruppen bezeichnen moderierte Kleingruppendiskussionen mit Nutzern bzw. potentiellen Nutzern eines Produkts. Im Kontext von formativer Evaluation werden Fokusgruppen zur Anforderungsanalyse genutzt, um die Wünsche und Bedürfnisse der zukünftigen Nutzer zu erfassen. Im Sinne einer summativen Evaluation dienen Fokusgruppen dazu positive und negative Erfahrungen von Nutzern mit dem Produkt zu sammeln, um daraus Verbesserungsmöglichkeiten abzuleiten.

Usability-Tests

Im Rahmen von Usability-Tests, führen Nutzer festgelegte Testaufgaben mit Prototypen oder fertigen Produkten durch. Usability-Tests finden in der Regel in Usability-Laboren statt. Dadurch existieren unterschiedliche Möglichkeiten die Aufgabenausführung durch den Tester aufzuzeichnen und die Ergebnisse hinsichtlich möglicher Usability-Probleme auszuwerten.

In Usability-Tests kommen verschiedene Erhebungs- und Aufzeichnungsmethoden zum Einsatz. Mit der thinking-aloud-Methode werden die Kognitionen des Nutzers während der Aufgabenbewältigung erfasst, indem der Nutzer sämtliche Gedanken und Handlungen laut verbalisiert. Mit der teaching-back-Methode werden die mentalen Modelle der Nutzer analysiert. Eine Person, die mit einem technischen System vertraut ist hat dabei die Aufgabe einer Laien-Person verbal die Bedienung und Funktionsweise des Systems zu erklären. Dadurch erhalten Usability-Experten Informationen über das mentale Modell des Nutzers von dem System und können daraus Rückschlüsse auf Usability-Probleme ziehen. Beim Video-Feedback wird die Aufgabenbearbeitung durch die Testperson auf Video aufgezeichnet. Das Video wird später gemeinsam von Testperson und Testleiter angeschaut. Dabei kann die Testperson ihr Verhalten kommentieren und der Testleiter hat die Möglichkeit Rückfragen zu stellen.

2

 

Usability im World Wide Web

Die Anfänge des World Wide Web liegen bereits einige Jahre zurück. Die Verbreitung und die Akzeptanz des Internets sind in den vergangenen Jahren erheblich gestiegen. Aus diesem Trend ergibt sich die Notwendigkeit, dass auch Websites die Prinzipien der Usability erfüllen sollten. Das Schlagwort des 21. Jahrhunderts heißt also Web-Usability. Im Zeitalter von Online-Shopping wird Web-Usability zu einem äußerst relevanten Thema. Dies soll an einem Vergleich verdeutlicht werden: Bei Markteinführung eines neuen technischen Geräts mit bestehenden Usability-Probleme, entstehen der Firma nachträglich Kosten durch die Einrichtung einer Kundenhotline oder kostenlosen Nachbesserungen. Im Internet sieht die Situation dagegen anders aus. Potenzielle Kunden kommen zunächst mit der Website des Anbieters in Kontakt. Das Ausmaß an Nutzerfreundlichkeit entscheidet nun, wie angenehm der potenzielle Kunde die Website empfindet. Nur bei hoher Web-Usability, wird der Kunde bereit sein, die Website erneut zu besuchen und Online-Einkäufe zu tätigen. Das Beispiel zeigt, dass auch die Betreiber von Websites ein hohes Interesse an der  Web-Usability haben sollten, denn mit zunehmendem Angebot an konkurrierenden Websites, erhält der Kunde zunehmend Ausweichmöglichkeiten. Im Zusammenhang mit Websites, die eine mangelhafte Usability aufweisen, wirft Nielsen (2000) zu Recht folgende Frage auf:

„With about 10 million sites on the Web in January 2000 (and about 25 million by the end of the year and a hundred million by 2002), users have more choices than ever. Why should the waste their time on anything that is confusing, slow or that doesn´t satisfy their needs?”

Usability-Anforderungen des World Wide Web

Die Berücksichtigung von Usability-Prinzipien ist für Websites aus zwei Gründen besonders wichtig. Zum einen zeichnen sich Websites durch eine äußerst heterogene Zielgruppe aus. Im Gegensatz zu anderen technischen Systemen, bei denen sich ein begrenzter Nutzerkreis definieren lässt, werden Websites für eine breite Masse an unterschiedlichen Nutzern konzipiert. Zum anderen wird das Internet vorwiegend als Informationsmedium genutzt. Daher muss das sofortige Auffinden von Informationen in besonderem Maße berücksichtigt werden.

Das Ziel der Web-Usability ist also, dem Kunden eine Website zu bieten, die ein Maximum an Effektivität, Effizienz und Zufriedenheit bietet. Im Folgenden werden Faktoren beschrieben, die die wahrgenommene Web-Usability von Nutzern entscheidend beeinflussen. Diese Faktoren lassen sich untergliedern in technische Faktoren und wahrnehmungspsychologische Faktoren (vgl. Abb. 2).

abb

Abbildung 2: Übersicht über Einflussfaktoren der Web-Usability

  1. Technische Fakoren:

A) Naming:

Web-Usability beginnt bereits bei dem Namen der Website. Benutzerfreundlichkeit entsteht dabei durch Namen, die einen Bezug zum Inhalt der Website aufweisen und einfach zu erinnern bzw. zu schreiben sind. Eine Website, die diese Kriterien der Namensgebung gut umsetzt ist www.getabstract.com.

B) Umgang mit Wartezeiten:

Wartezeiten bei der Benutzung einer Website, die beim Laden von Funktionen oder beim Ausführen von Prozessen entstehen, wirken sich insgesamt negativ auf die wahrgenommene Web-Usability aus. Dieser negative Effekt verstärkt sich, wenn der Nutzer nicht über die Wartezeit informiert wird. Websites sollten daher den Nutzer auf Wartezeiten in Form von Symbolen hinweisen. Sinnvoll ist es zudem, den Nutzer während der Wartezeit in den weiteren Prozess mit einzubeziehen. Während eines Ladevorgangs können die nachfolgenden Handlungsschritte angekündigt werden. Diese Ankündigungen verändern einen passiven Warteprozess in einen aktiven Warteprozess, der die wahrgenommene Dauer der Wartezeit reduziert.

load

l

 

C) Website-Informationsarchitektur:

Die Architektur mit der Informationen auf einer Website präsentiert werden, stellt ebenfalls ein wesentliches Kriterium der Web-Usability dar. Informationsarchitekturen mit hoher Usability zeichnen sich durch eine klare, verständliche Strukturierung und eine transparente, intuitive und logische Menüführung aus. Eine nutzerfreundliche Informationsstruktur hilft dem User sich auf der Website zurechtzufinden, die Inhalte schnell zu erfassen und Zusammenhänge zwischen Themen zu verstehen. Für ein hohes Maß an Web-Usability empfiehlt sich eine flache Informationsarchitektur. In dem vorliegenden Beispiel ist jede Inhaltsseite von der Startseite mit maximal zwei Klicks erreichbar.

3

Tiefe Informationsarchitekturen reduzieren das Ausmaß an Web-Usability, da dadurch die Transparenz reduziert und der Zugriff auf Inhalte mit mehr Aufwand verbunden ist. Die Beispielgraphik zeigt, dass hier vier Klicks notwendig sind, um Inhalte auf der untersten Ebene zu erreichen.

Bei der Gestaltung einer nutzerfreundlichen Informationsarchitektur sollten außerdem Sackgassen vermieden werden, die nur noch durch die Benutzung des „Zurück-Buttons“ verlassen werden können.

4

2. Wahrnehmungspsychologische Faktoren:

A) Platzierung von Inhalten

Visuelle Eindrücke werden mit den Augen aufgenommen und dann in sich überkreuzenden Sehnerven an den Cortex weitergeleitet. Linke und rechte Hemisphäre nehmen unterschiedliche Aufgaben wahr. Diese Aufgabenteilung sollte bei der Platzierung von Inhalten berücksichtigt werden, um die Web-Usability zu erhöhen. Vereinfacht gesagt, werden in der rechten Hemisphäre bevorzugt Raumorientierung und bildhafte Inhalte verarbeitet und in der linken Hemisphäre bevorzugt Sprache und Text. Nimmt man diese Erkenntnisse als Grundlage für die Platzierung von Inhalten, so empfiehlt es sich Bilder auf der linken Seite und den Text auf der rechten Seite zu präsentieren.

Beispiele für die Umsetzung dieser Erkenntnisse finden sich auf der Website von H & M. Abbildung 6 zeigt einen Ausschnitt dieser Website.

5

B) Trennung von Figur und Grund

Eine Grundvoraussetzung für die visuelle Wahrnehmung ist die Trennung von Figur und Grund. Diese Trennung erfolgt durch elementare Merkmale der optischen Anordnung, z.B. durch Farbe, Linien, geschlossene Felder und Kontrast. Websites sollten so gestaltet sein, dass der User sofort Figur und Grund trennen kann. Dabei wird der Text als Figur und der Hintergrund als Grund wahrgenommen. Um eine hohe Web-Usability zu gewährleisten, muss der Text als möglichst geschlossene Figur erkennbar sein. Erreicht werden kann dies einerseits, indem zwischen Text und Seitenrand bzw. anderen Seitenelementen ausreichend Platz gelassen wird und andererseits durch Umrandungen oder Schattierungen.

C) Visuelle Mustererkennung

Erkenntnisse der Wahrnehmungspsychologie zeigen, dass ähnliche Objekte als zusammengehörig empfunden werden. Ähnlichkeit kann sich auf Helligkeit, Farbton oder Form beziehen. Bei der Informationsverarbeitung suchen Menschen nach Zusammenhängen, die ein logisches Muster ergeben. Übertragen auf die Gestaltung von Web-Sites ergeben sich mehrere Empfehlungen, um die Usability zu steigern. Im Mittelpunkt dabei steht, dass alle Seiten einer Website ein einheitliches Erscheinungsbild haben sollten. Dies impliziert Einheitlichkeit in Bezug auf Schriftsatz, Graphik-Stil und Position der Navigationsleiste.

 

Fazit

Die vorliegende Arbeit hat gezeigt, dass Usability-Kriterien eine hohe Alltagsrelevanz haben und die Bedienung von Geräten bzw. das Nutzen von Websites deutlich erleichtern. Vor diesem Hintergrund kommt der Usability-Evaluation ein hoher Stellenwert zu.

 

Literatur:
Beier, M. & von Gizycki, V. (Hrsg.). (2002). Usability: Nutzerfreundliches Web-Design. Berlin: Springer.

Sarodnick, F. & Brau, H. (2006). Methoden der Usability Evaluation. Bern: Hans Huber.

Schweibenz, W. & Thissen, F. (2002). Qualität im Web: Benutzerfreundliche Webseiten durch Usability-                Evaluation. Berlin: Springer.

http://www.seo-trainee.de/informationsarchitektur-das-fundament-einer-website-legen/, zuletzt zugegriffen am 06.12.2016.

 

 

Finden – Suchmaschinen, Literatur & Social Bookmarking

Beim Suchen, Verwalten und Teilen von Informationen stehen uns verschiedene Werkzeuge zur Verfügung, die es uns ermöglichen, strukturiert mit Informationen umzugehen und uns so das Leben erleichtern können. Um dies jedoch zu gewährleisten, müssen die Werkzeuge die Anforderungen an die Gebrauchstauglichkeit (Usability) erfüllen. Sprich sie müssen effektiv und effizient in der Anwendung sein und uns als Nutzer zufrieden stellen. Im Folgenden werden die Bereiche Suchmaschinen, Literatur recherchieren und verwalten und Social Bookmarking näher erläutert.

Wie suche ich Informationen?

Zunächst wollen wir uns aber der Frage zuwenden, welche Strategien bei der Suche nach Informationen anwendet werden. Laut Spencer (2006) wird dabei zwischen vier Modi von Suchstrategien unterschieden.

1. Bekanntes suchen beschreibt die einfachste Art der Suche. Die gesuchten Begriffe sind bekannt und man weiß, wo mit der Suche anfangen muss. Die schnelle Informationsbeschaffung steht hierbei im Vordergrund und häufig ist die erste gefundene Antwort zufriedenstellend, sodass die Suche beendet werden kann. Hierbei stellt zum Beispiel die Suchleiste auf Websites eine Möglichkeit dar, schnell an Informationen zu gelangen.

2. Hat man eine Idee davon, was man wissen möchte, aber es bestehen Unsicherheiten über die Begrifflichkeiten, sprich man weiß nicht, wie man sich bei der Suche am besten ausdrücken soll, wird explorativ gesucht. Die Unsicherheit über zu verwendende Suchbegriffe erschwert zudem den Beginn der Suche. Die richtige Antwort wird zwar meist erkannt, aber es bleibt ein gewisser Grad an Unsicherheit bestehen, da unklar ist, ob ausreichend Informationen gesammelt wurden. Bei diesem Modus findet lediglich eine Verengung der Kluft zwischen bereits bestehendem Wissen und dem Zielwissen statt. Um möglichst viele Informationen zu bekommen, surfen die Nutzer meist durch das Internet. Dadurch besteht die Möglichkeit, verschiedenen Pfaden zu folgen und sie zu erkunden.

3. Das Konzept hinter dem dritten Modus der Informationsbeschaffung ist, dass der Nutzer eigentlich gar nicht weiß, was er braucht. Ein Beispiel hierfür ist das Durchsuchen von Websites ohne das Vorliegen eines spezifischen Ziels. Dabei ist die Herausforderung, dem Nutzer dennoch eine Antwort zu präsentieren. Eine Strategie ist hierbei beispielsweise das Verfügbarmachen von detaillierten Informationen, die es dem Nutzer ermöglichen herauszufinden, was er braucht.

4. Beim Wiederfinden von Informationen weiß der Nutzer genau oder er hat eine ungefähre Vorstellung darüber, wo die gesuchte Information, beispielsweise auf einer Website zu finden ist. Taucht die gesuchte Information auf, ist man sofort in der Lage sie zu erkennen und weitere Nachforschungen sind dann nicht notwendig.

Alle vier Strategien zur Informationsbeschaffung haben gemeinsam, dass das Suchverhalten der Nutzer genau beobachtet werden muss. Daraufhin ist es wichtig, Websites so zu designen, dass der Nutzer effektiv, effizient und zufriedenstellend in der Lage ist, das gewünschte Ziel zu erreichen beziehungsweise die gesuchte Information zu erlangen.

1) Werkzeuge der Informationsbeschaffung: Suchmaschinen

Womit suche ich Informationen?

„Ich googel das mal eben!“ – Wer hat diesen Satz noch nicht gehört oder sogar selbst gesagt? Wenn es um die Beschaffung von Informationen geht, denken die meisten der Internetnutzer an Google, den Spitzenreiter in der Auswahl an Suchmaschinen. Das ist nicht verwunderlich, denn mit mehr als 90 Prozent der Suchmaschinenmarktanteile hat Google es geschafft, das weitverbreitetste Werkzeug zur Suche von Informationen weltweit zu werden (Jacobson, 2016) und 2004 mit dem Verb „googeln“ in den Duden einzuziehen (Zschunke, 2004).

Vor Google existierten bereits andere Suchmaschinen, wie zum Beispiel Yahoo und bing, die es den Internetnutzern ermöglichten, Informationen mithilfe von Suchbegriffen zu sammeln. Diese Suchmaschinen – unter ihnen auch Google – analysieren mithilfe sogenannter Crawler die Websites. Diese Crawler krabbeln – daher der Name –an Links entlang von Website zu Website durch das Internet und extrahieren verwertbare Informationen, wie zum Beispiel Onpage-Faktoren. Dabei handelt es sich um alle vom Autor direkt beeinflussbaren Aspekte, wie zum Beispiel die URL (Adresse einer Website) und title-tags (Wörter, die im title einer Website vorkommen). – Aber das können Yahoo und Co. doch auch! Was ist nun also das Besondere an Google? Was unterscheidet es von den anderen Werkzeugen?

Die Google-Gründer Larry Page und Sergey Brin entwickelten Ende der 90er Jahre einen Algorithmus, mit dessen Hilfe die Flut an Inhalten im World Wide Web durchsucht wird und als Folge strukturiert Suchergebnisse in Form einer Liste präsentiert werden. Die Idee von Page und Brin war es, die Suchergebnisse nach ihrer Popularität zu sortieren. Hierfür werden neben Onpage-Faktoren auch Offpage-Faktoren, sprich externe Informationen zu einer Website, berücksichtigt und analysiert. Vor allem Verlinkungen spielen dabei eine große Rolle. Google verwendet den sogenannten PageRank-Algorithmus, der die Anzahl der Verlinkungen, die auf eine Website verweisen, bewertet und gewichtet. Dies geschieht mithilfe des Random Surfer Modells, welches eine Berechnungsgrundlage für den PageRank-Algorithmus liefert. Das Modell bildet das Verhalten von Internetnutzern ab und liefert die Wahrscheinlichkeit, mit der ein zufälliger Nutzer eine Website besucht. Dies bedeutet, dass diese Wahrscheinlichkeit abhängig von der Anzahl vorhandener Links ist, sprich Seiten, die oft verlinkt sind, können häufiger besucht werden. Daraus resultieren sowohl eine höhere Linkpopularität und als auch eine höhere Position in der PageRank-Abfolge. Kurz gesagt: Google sortiert die Suchergebnisse nach ihrer Relevanz mithilfe ihrer Linkpopularität.

Dies wirft jedoch die Frage auf, ob der von Google angezeigte PageRank auch der tatsächlichen Wichtigkeit und Relevanz von Websites entspricht. Da keine qualitative Messung der Websites stattfindet, sondern ihre Linkhäufigkeit neben weiteren Faktoren analysiert wird, ist fraglich, ob der erste angezeigte Vorschlag in der Liste der Suchergebnisse auch gleichzeitig der qualitativ hochwertigste ist. Wenn die Aktualität von Informationen im Vordergrund steht, kommt ein weiteres Problem auf uns zu: Populäre Websites, sprich Websites mit vielen eingehenden Verlinkungen, kursieren bereits länger im Netz als Websites und können so mit mehr Links auffahren als „neue“ Websites, die aber eventuelle aktuellere Informationen enthalten. Um dem entgegenzuwirken, wird neben der Anzahl der eingehenden Verlinkungen auch die Zeit im Netz seit Veröffentlichung bei der Relevanz von Websites berücksichtigt. Außerdem können sich finanzkräftige Websitebetreiber einen höheren PageRank erkaufen, um unter den obersten Treffern der Ergebnisliste angezeigt zu werden. Auch hier gilt es kritisch zu hinterfragen: Ist dies nun das qualitativ hochwertigste Ergebnis?

Alternativen zur Steigerung von Privatsphäre, Anonymität und Datensicherheit

Startpage_Slogan.png

Werbung der Suchmaschine Startpage

So wirbt die Suchmaschine Startpage um die Gunst der Suchmaschinennutzer. Google mag eine der treffsichersten Suchmaschinen mit einem hohen Komfort und einer beeindruckenden Ergiebigkeit an Informationen sein, doch die Nutzer zahlen einen teuren Preis: Einschränkung in der Privatsphäre, Anonymität und Datensicherheit. Mithilfe der eigenen persönlichen IP-Adresse und platzierten Tracking-Dateien kann unsere Surfspur quer durch das Internet zurückverfolgt werden. Dadurch wissen Suchmaschinen wie zum Beispiel Google immer ganz genau, was wir suchen und was uns interessiert. Doch wir können etwas dagegen tun: Alternativen zu Google und seiner Sammelwut verwenden! Da die Alternativen jedoch oft nicht unbekannt sind, werden vier von ihnen kurz vorgestellt.

1. Startpages Motto: Datenschutz! Die Suchmaschine verwendet startpage_logo_10-gifverschlüsselte SSL-Verbindungen für eine sichere Datenübertragung und Nutzer können einen kostenlosen Proxy-Service nutzen, um die Anonymität während des Surfens im Netz zusätzlich zu erhöhen, da so IP-Adressen nicht gespeichert werden. Die Server liegen sowohl in Europa und den USA, jedoch lässt sich in den Einstellungen festlegen, welcher Server standardmäßig verwendet werden soll. Zusätzlich ist es möglich, Sucherergebnisse anonym zu öffnen. Dies verbessert den Datenschutz, da die Daten nicht zum Zielserver übertragen werden. Die Nachteile sind jedoch eine verlangsamte Verbindung und die veränderte Optik der anonym geöffneten Website. Diese Suchmaschine ist auch als App für Android- und iOS-Betriebssysteme verfügbar.

2. DuckDuckGo zählt zu den beliebtesten und erfolgreichsten Alternativen zu Google.

duckduckgo

Startwebsite der Suchmaschine DuckDuckGo

Optisch ähnelt sie sehr Google, sodass kaum eine Umstellung in der Handhabung notwendig ist. Sofern erlaubt liefert die Suchmaschine bei Musikern auch Songs zum sofort Anhören. Zusätzlich werden zum Suchbegriff passende Amazon-Produkte angezeigt. Apps für Android- und iOS-Betriebssysteme sind verfügbar. Ein kleiner Wehrmutstropfen: Da es sich hierbei um ein US-Unternehmen handelt, ist es dazu verpflichtet, den US-Behörden Zugriff zu den Servern zu gewähren und somit auch auf die Daten der Nutzer. Dies lässt sich jedoch beispielsweise in Form eines Firefox-Add-ons verhindern. Die Suchmaschine wird dann in Verbindung mit einem Tor-Netzwerk verwendet, die eine Anonymisierung der Verbindungsdaten ermöglicht.

3. MetaGer wurde vom SUMA-EV (Verein für freien Wissenszugang) an dmetager_logo.jpger Universität Hannover entwickelt und verwendet ausschließlich in Deutschland stehende Server. Individuelle Nutzereinstellungen zur personalisierten Suche sind möglich und MetaGer speichert und trackt nichts. Auch bei MetaGer ist es möglich, Links anonym zu öffnen, um persönliche Daten besser zu schützen. Hier liegen jedoch die gleichen Nachteile vor, die bereits bei Startpage geschildert worden sind. Die Suchmaschine ist zudem nur als Android-App verfügbar. Interessant ist der Ableger MetaGer2: Dieser filtert „Müll“, zum Beispiel gefälschte Seiten, die zur Manipulation von Suchmaschinen eingesetzt werden, aus den Sucherergebnissen raus und liefert so laut der Entwickler bessere Suchergebnisse und ein realistischeres Ranking.

4. Hinter DeuSu („DEUtscheSUchmaschine“) steckt genau eine Person: Dieser deutsche Ein-Mann-Betrieb finanziert sich durch Werbung und Spenden. Die Suchmaschine ist komplett HTTPS-Verschlüsselt, sodass alle Datendeusu_logo abhörsicher übertragen werden können. Bislang umfasst DeuSu erst rund 1 Milliarde Einträge. Dies hat Konsequenzen für die Ergiebigkeit der Suchergebnisse, expandieren ist jedoch in Planung.

Inwiefern erfüllen diese Google-Alternativen aber die Anforderungen der Usability (effektiv, effizient und zufriedenstellend)? Hierbei ist wichtig zu beachten, dass es individuell unterschiedlich sein kann, welche Punkte im Vordergrund stehen. Wem eine hohe Datensicherheit wichtig ist, ist bei den alternativen Werkzeugen besser aufgehoben und wird zufriedener sein als mit Google. Liegt der Fokus auf einer möglichst großen Auswahl an Informationen, ist Google weiterhin das Werkzeug der Wahl. Beispielsweise DeuSu bietet eine geringe Informationsvielfalt an, sodass meist weitere Recherchen mithilfe von anderen Werkzeugen notwendig sind. Dies hat einen negativen Einfluss auf die Effizienz im Arbeiten.

Auch wenn zum Beispiel die Ergiebigkeit an vorhandenen Informationen bei den einzelnen Werkzeugen noch ausbaufähig ist, so können sie doch mit Privatsphäre im Netz, Anonymität beim Surfen und Sicherheit persönlicher Daten punkten. Es lohnt sich, die verschiedenen Werkzeuge genauer unter die Lupe zu nehmen. Vielleicht ist ja für den ein oder anderen etwas Passendes dabei!

Hilfe, zu viele / wenige Suchergebnisse! –
Tipps & Tricks bei der Verwendung von Suchmaschinen

Um die Verwendung von Suchmaschinen zu vereinfachen und Suchanfragen präziser zu gestalten, gibt es ein Tricks, die man kennen sollte. Um Ergebnisse einzugrenzen können beispielsweise Suchoperatoren verwendet werden, die zu Suchanfragen hinzugefügt werden. Die wichtigsten sind in der Tabelle aufgeführt.

  • site: gibt Ergebnisse für bestimmte Websites oder Domains aus
  • related: sucht Websites, die einer bestimmten Webadresse ähneln
  • ODER sucht Websites, die irgendeinem der angegebenen Begriffe ähneln
  • UND sucht Websites, die allen angegebenen Begriffen ähneln
  • NEAR sucht verwandte Begriffe

Wer denkt, dass er sich diese Suchoperatoren nicht merken kann, braucht nun nicht verzweifelt mit dem Schreiben von Karteikärtchen beginnen. Alle Suchanfragen können ebenso gut über die Option „Erweiterte Suche“ der Suchmaschine verfeinert werden. Google durchsucht die Ergebnisse automatisch mit dem Singular und Plural des Begriffs, sodass hierauf bei der Eingabe der Suchbegriffe nicht geachtet werden muss.

Zur Erweiterung der Suche können Trunkierungssymbole, sogenannte Platzhalter, verwendet werden. Dadurch werden zum Beispiel explizit Pluralformen eines Suchbegriffs oder alternative Schreibweisen zugelassen.

  • * steht für unbekannte Begriffe
  • ? steht für ein oder kein Zeichen
  • # steht für genau ein Zeichen
  • „“ findet Websites, auf denen die Wörter in gleicher Weise und Reihenfolge wie innerhalb der Anführungszeichen vorkommen
  • .. definiert einen Zahlenbereich

Wichtig ist, dass kein Leerzeichen zwischen dem Suchoperator beziehungsweise Platzhalter und der Suchanfrage eingefügt wird, da sonst die Suche nicht funktionieren wird. Dies gilt nicht für die Operatoren OR und AND.

Zusammenfassend lässt sich festhalten, dass eine große Vielfalt an Werkzeugen zur Beschaffung von Informationen besteht. Die Wahl des für einen persönlich am geeignetsten ist abhängig von den eigenen Interessen und Anforderungen an die Werkzeuge. Trotz der Bequemlichkeit, die uns Google bietet und an die wir uns gewöhnt haben, darf nicht vergessen werden, dass Google bei Weitem nicht immer die beste Wahl bei der Informationsbeschaffung im Internet darstellt. Vor allem im Bereich des täglichen Surfens lohnt sich ein Blick über Googles Tellerrand und auf alternative Werkzeuge.

2) (Wissenschaftliche) Literatur recherchieren und verwalten

Wissenschaftliches Arbeiten ist einer der Kernpunkte unseres Studiums und dazu gehört auch die Recherche wissenschaftlicher Literatur zur Sicherung der Forschungsqualität. Bevor mit der Suche nach Informationen begonnen werden kann, sind gewisse Vorbereitungen wichtig, damit die Suche nicht in einem heillosen Durcheinander endet.

  1. Präzise Fragestellung: Was möchte ich wissen? Welche Informationen suche ich genau?

Die weiteren Überlegungen sind abhängig von der Fragestellung:

  1. Wie alt soll oder darf die Literatur sein?
  2. Welche Sprache(n) soll die Literatursuche umfassen? Dies ist auch von den eigenen Sprachkenntnissen abhängig.

Wo suche ich Literatur?

Bei der Suche nach Informationen stehen verschiedene Informationsquellen zur Verfügung.

1. Bücher: Guter Beginn! Sie liefern uns sowohl allgemeine als auch spezifische Informationen zum gesuchten Thema. Allerdings sollte bei ihnen immer darauf geachtet werden wie aktuell die darin enthaltenen Informationen sind, sprich ob der Inhalt „up to date“ ist. Es sollte in jedem Fall die aktuellste Auflage eines Buches verwendet werden.

 2. Zeitschriften: Sie gelten als eine der besten Informationsquellen, da sie eine große Auswahl an spezifischem und vor allem aktuellem Wissenstand bieten. Peer-reviewed Zeitschriften sind vorzuziehen, da sie aufgrund des Gegenlesen von Fachkollegen einen höheren Qualitätsstand haben. Reviews bieten zwar einen Überblick zu einem (spezifischen) Thema, es ist jedoch unvermeidbar die einzelnen Artikel genauer zu lesen, wenn in den Reviews verwertbare Informationsquellen gefunden werden.

3. Bibliotheksmitarbeiter: Zur Klärung von Fragen und Unterstützung bei Problemen stehen sie als Rechercheexperten zur Verfügung.

4. Internet: Es ermöglicht uns mit Werkzeugen wie Suchmaschinen, (Meta-)Datenbanken und Katalogrecherchen sowohl allgemeine als auch genaue Informationen zu suchen. Zur Vermeidung einer Überflutung durch die vorhandenen Inhalte sind die Anwendung von Suchoperatoren und passendenden Suchwerkzeugen empfehlenswert.

Abhängig von der Art und Quelle der Information, sprich den persönlichen Anforderungen des Nutzers, bietet die Universitätsbibliothek (UB) der Humboldt-Universität zu Berlin eine Vielfalt von Werkzeugen zur Suche wissenschaftlicher Literatur an. Ausgewählte werden im Folgenden näher erläutert.

UB.png

Startwebsite der Universitätsbibliothek der Humboldt-Universität zu Berlin

Das Suchportal Primus dient der Katalogrecherche und verfügt über Bücher, ebooks und gedruckter sowie elektronischer Zeitschriften. Es liefert die Verfügbarkeit (Vorhanden ja/nein? Ausgeliehen ja/nein?), Standort (Grimm-Zentrum oder eine der Zweigbibliotheken der UB?) und die Signatur eines Mediums (genauer Standort innerhalb der Bibliothek). Ebooks und Artikel elektronischer Zeitschriften können im Universitäts-WLAN eduroam und über die VPN-Tunnelverbindung aus einem externen WLAN heruntergeladen werden.

Elektronische Zeitschriften der UB befinden sich ausschließlich in der elektronischen Zeitschriftenbibliothek (EZB). Die Zeitschriften sind nach Fachgebieten (zum Beispiel Psychologie) sortiert. Sofern die Zeitschrift für die UB lizensiert ist, sind die Volltexte der Zeitschriften frei und ohne Einschränkungen zugänglich. Sollte die UB keinen Lizenzvertrag abgeschlossen haben und deshalb die Zeitschrift nicht zugänglich sein, empfiehlt es sich dennoch, dem angegebenen Link zu folgen und das Herunterladen des Artikels zu versuchen.

Das Datenbank-Infosystem (DBIS) der UB liefert sortiert nach Fachgebieten Datenbanken zur Recherche von Zeitschriften und Artikeln. Innerhalb der Datenbanken lässt sich nach verschiedenen Aspekten, wie beispielsweise Titel, Autor, Publikationsjahr und Sprache filtern. Bei der Eingabe von Suchbegriffen werden zudem häufig Wortergänzungen angeboten, um die Suche zu vereinfachen.

Eine weitere Möglichkeit der Recherche von google_scholar_logo.jpgLiteratur – unabhängig von der UB – ist Google Scholar. Hierbei handelt es sich um ein Suchangebot von Google, dessen Schwerpunkt auf wissenschaftlichen Fachzeitschriften und Buchinhalten liegt. Die Suche lässt sich, wie bereits von anderen Suchwerkzeugen bekannt, mithilfe von Operatoren und Platzhaltern einschränken beziehungsweise erweitern. Zusätzlich können unter Anderem Publikationszeiträume definiert werden. Google Scholar liefert neben Informationen zum Artikel oder Buch, wie zum Beispiel Titel, Autor und Erscheinungsjahr auch die Anzahl von Zitationen. Dies kann beim Einschätzen der Qualität einer Quelle nützlich sein. Volltexte können entweder direkt oder über die verlinkte Website als PDFs heruntergeladen werden. Dies stellt uns jedoch vor das Problem, dass durch den kostenlosen Zugang von Artikeln (und Büchern!) Urheberrechte verletzt werden können (Kuny & Cleveland, 1998).

Wie suche ich Literatur?

Generell gilt bei der Literaturrecherche, dass Kreativität gefragt ist: Jongliere mit Begriffen, Synonymen und Schreibweisen, um eine möglichst umfassende und genaue Vielfalt an Literatur zu bekommen. Ein weiterer Tipp: Wenn ein Artikel über Google Scholar nicht als Volltext verfügbar ist, dann lohnt es sich, mittels einer eduroam- oder VPN-Verbindung erneut zu suchen und es zusätzlich bei Primus zu versuchen.

Womit verwalte ich die gesammelte Literatur?

Um nun den Überblick über den Berg an gesammelter Literatur zu behalten, können uns bestimmte Werkzeuge, sogenannte Literaturverwaltungsprogramme, helfen. Diese Werkzeuge unterstützen uns beim wissenschaftlichen Arbeiten, um unter Anderem möglichst effektiv und effizient eine Haus- oder Abschlussarbeit anzufertigen. Sie strukturieren die einzelnen Titeleinträge beispielsweise nach Autor, Titel, Erscheinungsjahr, Dokumententyp (Monographie, Zeitschriftenaufsatz, Interviewmaterial u.v.m.) und verwenden diese Informationen zur Erstellung von Quellenangaben und eines Literaturverzeichnisses. Kurz: Sie vereinfachen uns das Leben enorm – sofern wir wissen, wie wir damit umzugehen haben! Im Folgenden werden verschiedene Werkzeuge zur Literaturverwaltung vorgestellt und ihre Stärken und Schwächen dargelegt.

Für alle HU-Mitglieder (Studierende und Mitarbeiter) steht eine Campus-Lizenz der Programme Citavi und EndNote zur Verfügung, zu denen die UB auch Schulungen anbietet. Normalerweise sind beide Werkzeuge kostenpflichtig, können aber über die Website der UB kostenfrei heruntergeladen werden.

Citavi ist aufgrund der übersichtlichen citavi_logoNutzeroberfläche leicht erlernbar. Bei Problemen kann auf das gut ausgearbeitete Handbuch zurückgegriffen werden und im Internet lassen sich viele Tutorials finden, die beim Arbeiten mit Citavi unterstützen. Literatur lässt sich innerhalb des Programms mithilfe der ISSN, ISBN, PubMed (Metadatenbank mit medizinischen Artikeln) und Doi (Digital Object Identifier) suchen und direkt als Titeleintrag abspeichern. Citavi zieht alle nötigen Informationen (Autor, Titel, Zeitschriftenname etc.) – sofern dort hinterlegt – direkt aus dem Internet. Die verwaltete Literatur ist über ein gemeinsames Laufwerk im Team nutzbar und ermöglicht so die kollaborative Zusammenarbeit von Forschungsgruppen. Außerdem lässt sich die Literatur unkompliziert verschlagworten und kategorisieren. Artikel können in Form von PDFs an den Literatureintrag anhängt und umfangreich bearbeitet werden. Zitate können daraufhin aus ihnen entnommen, systematisch geordnet und mit eigenen Gedanken und Kommentaren verbunden werden. Citavi arbeitet mit den meisten Textverarbeitungsprogrammen, wie beispielsweise Word und LaTex, zusammen und integriert per Klick die gesammelten Zitate, Gedanken und Quellennachweise in den Text. Gleichzeitig erstellt das Werkzeug automatisch ein Verzeichnis der zitierten Literatur gemäß des ausgewählten Zitierstils. Citavi hat jedoch auch einige Nachteile: Es wird nur von Windows-Betriebssystemen unterstützt und kann nicht über mobile Endgeräte wie Handy verwendet werden. Außerdem ist die Literatur nur lokal über einen Rechner verfügbar, da es von Citavi keine webbasierte Version gibt. Trotz dieser Schwächen lässt sich mit Citavi effektiv, effiziert und zufriedenstellend arbeiten.

EndNote bietet die gleichen Möglichkeiten wie Citavi endnote.png(Organisation von Literaturinhalten, kollaborative Zusammenarbeit, Verschlagwortung und Kategorisierung von Literatur, Wissensorganisation, Verknüpfung mit Textverarbeitungsprogrammen, automatische Erstellung eines Literaturverzeichnisses), hat aber zusätzlich die Vorteile, dass die Literatur sowohl lokal als auch online mittels der Webversion zur Verfügung steht und Mac OS geeignet ist. Ein großer Kritikpunkt ist die Nutzeroberfläche dieses Werkzeugs. Da sie nicht intuitiv ist, erfordert EndNote eine intensivere Einarbeitung als zum Beispiel Citavi. Aber auch hier stehen uns gute Tutorials zur Verfügung. Abschließend lässt sich jedoch sagen, dass EndNote trotz des Mehraufwands zu Beginn der Nutzung ein guter Unterstützer bei der Bewältigung von Literaturmassen ist.

Das dritte Werkzeug ist Zotero. Hierbei handelt es sich zotero_logoum ein frei verfügbares Programm zur Literaturverwaltung (bis 300 MB Speicherplatz kostenlos). Aufgrund der einfachen Handhabung und nutzerfreundlichen Oberfläche lässt sich die Einarbeitungsphase schnell überwinden. Mit Zotero können die gängigen Funktionen eines Literaturverwaltungsprogramms vergleichbar mit Citavi und EndNote durchgeführt werden, zusätzlich ist aber auch eine Freigabe der Literatur an Externe möglich. Hierbei wird zwischen den drei Gruppentypen Privat (Zotero-Mitglieder, die ihre Arbeit nur untereinander teilen möchten), Öffentlich, aber geschlossene Mitgliedschaft (Gruppe, die ihre Mitglieder selbst bestimmt und Arbeit öffentlich präsentieren) und Öffentlich (Gruppe ist öffentlich zugänglich, jeder kann teilnehmen und Bibliothek der Literatur einsehen) unterschieden. Zotero wird sowohl von Windows- als auch MacOS- und Linux-Betriebssystemen unterstützt und bietet die Möglichkeit zur Zusammenarbeit mit anderen, da es nicht nur lokal verwendet werden kann, sondern auch als Webversion verfügbar ist.

Neben Citavi, EndNote und Zotero stehen noch weitere Werkzeuge wie zum Beispiel Colwitz, Mendeley und RefWorks zur Verfügung. Da die Anforderungen an das eigene Werkzeug individuell unterschiedlich sind, lohnt es sich, sie zu vergleichen und mehrere auszuprobieren. So findet ihr das für euch passende Werkzeug, das euch beim Verfassen von wissenschaftlichen Arbeiten unterstützt.

3) Social Bookmarking

Hinter dem Begriff Social Bookmarking (dt. „soziale Lesezeichen“) versteckt sich neben Altbekanntem auch Neues. Wer eine interessante Website im Internet findet und sie sich für zukünftige Zugriffe abspeichern möchte, kann für die Website ein Lesezeichen im Browser erstellen. Diese lassen sich in einer Ordnerstruktur im Browser organisieren und (teilweise umständlich) verwalten. Doch was kann ich machen, wenn ich eine Website finde, die ich sowohl abspeichern als auch mit meiner Umwelt teilen möchte? Hier kommen sogenannte Social Bookmark-Portale als Werkzeuge des Wissensmanagements zum Einsatz. Dabei spielen zwei Aspekte, die im Folgenden näher erläutert werden, eine wichtige Rolle.

1. Aspekt: Bookmarking beschreibt das Anlegen, Speichern und Verwalten von Internet-Lesezeichen auf dem Server eines Bookmark-Portals. Bei den Bookmarks handelt es sich um Links zu Websites, Blogs, Artikeln, Videos u.v.m., die für den Nutzer von individuellem Interesse sind. Durch das Ablegen der Lesezeichen auf dem Portal besteht die Möglichkeit eines weltweiten Zugriffs auf die gesetzten Lesezeichen, sodass auch bei einem Defekt am eigenen Rechner alle Lesezeichen erhalten und verfügbar bleiben. Zusätzlich können sie mit Schlüsselwörtern / Schlagwörtern, sogenannten Tags, versehen, und mithilfe einer individuellen Kategorisierung unkompliziert verwaltet werden.

2. Aspekt: Aufgrund der Speicherung der Bookmarks auf einem Server beziehungsweise in der Cloud, können Lesezeichen der Öffentlichkeit zur Verfügung gestellt werden. Durch das Teilen interessanter Themen mit anderen Nutzern ergibt sich der Social Teil der Verwaltung von Lesezeichen. Außerdem hat man, abhängig von der Freigabeeinstellung, einen Zugriff auf die Bookmarkingsysteme anderer Nutzer, deren Seiten auch abonniert werden können. Neben dem Teilen und Taggen von Bookmarks ist auch die Kommentierung und Bewertung durch die Community, sprich die anderen Nutzer des Portals, möglich. Dies schafft eine intensive Vernetzung von Portalmitgliedern. Die Relevanz der Bookmarks richtet sich nach der Verschlagwortung, sprich den Tags, und Bewertung durch die Community.

Vor- und Nachteile von Social Bookmark-Portalen

Social Bookmarking und deren Portale bieten zahlreiche Vorteile. Durch die übersichtliche Verwaltung der Bookmarks wird das Management des persönlichen Wissens stark vereinfacht. Das Ablegen der Lesezeichen im Internet (und eben nicht wie vorher lokal im Browser) ermöglicht einen weltweiten Zugang zu ihnen und die Vernetzung mit anderen Nutzern. Durch das Abonnieren von anderen Nutzern bekommt man gebündelte Informationen zu den eigenen Interessen und kann diese Lesezeichen zusätzlich in die eigene Linksammlung übernehmen. Die Social Bookmarking Anbieter sind kostenlos, fordern jedoch manchmal persönliche Angaben wie Geburts- und Adressdaten. Generell ist davon abzuraten, (zu viele) persönliche Informationen im Netz zur Verfügung zu stellen. Zudem gibt es keine einheitliche Benennung und Zuordnung von Kategorien und Schlagwörtern. Dies kann zu Verwirrungen und Komplikationen beim Suchen von Themen führen.

Welche Social Bookmarking Anbieter gibt es?

Bei fast allen Anbietern muss vor der Nutzung des Portals eine kostenlose Registrierung und Anmeldung erfolgen. Wie bereits geschildert werden hierbei unterschiedliche viele Informationen abgefragt. Daraufhin können Bookmarks abgelegt, getaggt und bewertet und Schlagwörter vergeben und übergeordnete Kategorien erstellt werden.

Ein Beispiel für ein Social Bookmark-Portal ist das englischsprachige Delicious, das 2003 unter dem Namen del.icio.us  begann undelicious-logod mittlerweile zu den größten Unternehmen seiner Art zählt. Die Anbieter werben mit dem Slogan „Dishout your bookmarks to friends. And see what others are sharing with you.” und treffen somit sehr gut das Konzept hinter Social Bookmarking. Beliebte Links werden schmackhaft präsentiert und mit den Mitmenschen geteilt. Zusätzlich ist man immer „up to date“ und weiß, welche Informationen, Themen und Interessen gerade im Netz angesagt sind. Delicious ist neben der Rechneranwendung als App für Smartphones und Tablets verfügbar.

Digg ist ein weiteres Portal zur Verwaltung von Social Bookmarks. Es digg_logo.pngzeigt große Ähnlichkeit zu Delicious, da gleiche Funktionen möglich sind. Ein wichtiger Unterschied ist jedoch, dass bei digg Artikel und Kategorien bereits vor der kostenlosen Registrierung und Anmeldung gesucht und gelesen werden können. Erst das Ablegen eigener Bookmarks erfordert ein Anmelden. Das Konzept von digg ist einfach: Je mehr „diggs“ ein Link hat, desto beliebter ist er. Nur die Links mit den meisten „diggs“ schaffen es auf die Startseite oder auf die oberen Plätze in einer Kategorie und werden dadurch besonders häufig angeklickt.

Suchmaschinenoptimierer und die Anfälligkeit von Portalen gegenüber Spamlesezeichen

Wir erinnern uns: Suchmaschinen bewerten unter anderem die Anzahl von Verlinkungen einer Website. Vereinfacht ausgedrückt lässt sich sagen, dass je mehr eingehende Links einer Website bestehen, desto höher ist ihre Linkpopularität und dementsprechend die Gewichtung in der Rangfolge von Websites. Nun stellt sich die Frage, ob das Speichern von Links in Form von abgelegten Lesezeichen auf den Social Bookmark-Portalen einen Einfluss auf das PageRanking von Websites hat, da diese die Anzahl der eingehenden Links einer Website erhöhen.

In der Vergangenheit ist es tatsächlich dazu gekommen, dass auf Social Bookmark-Portale übermäßig viele Links zu Websites eingetragen worden sind, um unter Anderem das PageRanking bei Suchmaschinen zu verbessern. Als dabei der eigentliche Gedanke hinter den Portalen in den Hintergrund trat, reagierten die Betreiber der Portale mithilfe von Nofollow-Attributen. Das Setzten dieser Attribute auf Links teilt den Crawlern der Suchmaschine mit, dass sie diesem Link nicht folgen müssen oder dürfen. Dadurch verloren die Social Bookmark-Portale an Bedeutung für Suchmaschinenoptimierer.

Trotzdem besteht weiterhin die Gefahr des Missbrauchs dieser Portale. Im Rahmen von Data Mining (dt. Datengewinnung) und Webintelligenz gewannen Social Bookmarkingsystem in der Forschung im Laufe der Jahre an Bedeutung. Sie stellen die Interessen von Millionen Menschen dar und liefern einen großen Umfang an Informationen zu Lesezeichen- und Schlagwortmustern, sprich zu Bookmarkingverhalten. Um diese Verhaltensmuster im Bookmarking und insbesondere die Anfälligkeit gegenüber Spamlesezeichen zu untersuchen, analysierten Wetzker, Zimmermann und Bauckhage (2008) fast 150 Millionen Lesezeichen des Anbieters del.icio.us. Unter Spam verstehen die Autoren unter anderem Links, die häufig vorkommen wahrscheinlich durch automatische Mechanismen als Lesezeichen abgelegt werden. Das erhöhte Vorkommen dieser Spamlesezeichen hat zur Folge, dass die Wahrscheinlichkeit des Ablegens dieser Lesezeichen durch andere Nutzer ansteigt.

Wetzker et al. (2008) konnten zeigen, dass lediglich eine geringe Anzahl der del.icio.us Nutzer für die Mehrheit an Beiträgen verantwortlich war. Zweiundzwanzig Prozent aller Bookmarks des Portals sind auf die Top 1 Prozent Nutzer, sprich die aktivsten, zurückführbar, während die Top 10 Prozent Nutzer mehr als 60 Prozent der Websites geteilt haben.

Zusätzlich fanden die Autoren fundierte Belege für den Einfluss von Spamlesezeichen auf das Bookmarkingverhalten der del.icio.us Nutzer. Eine Analyse der 20 aktivsten Nutzer ergab, dass 19 von ihnen Zehntausende von Links, die alle auf nur wenige Websites weiterleiteten, geteilt haben. Es zeigte sich zusätzlich, dass es sich bei dem Verhalten diesen 19 Nutzer anscheinend nicht um menschliche Aktivitäten gehandelt hat, sondern automatische Mechanismen für das Bookmarkingverhalten verantwortlich waren. Das Spamverhalten der einzelnen 19 del.icio.us Nutzer unterschied sich zudem voneinander. Während ein Nutzer alle seine 7880 Lesezeichen, die auf die gleiche Website verwiesen, mit denselben sechs Tags versah, verwendete ein anderer Nutzer pro Lesezeichen mehr als 100 Tags. Die Autoren vermuten, dass hierbei das Lenken der Aufmerksamkeit auf mehrere verwandte Quellen beabsichtigt wurde. Des Weiteren fanden Wetzker et al. (2008) Tausende von Lesezeichen, die gleichzeitig innerhalb weniger Minuten hochgeladen worden sind. Eine Kombination der soeben genannten Arten von Spam konnte ebenfalls in der Analyse entdeckt werden.

Die Autoren schlussfolgern, dass das Vorliegen von Spamlesezeichen in der Analyse von Mustern des Bookmarkingverhaltens berücksichtigt werden muss, um reliable Ergebnisse zu erlangen. Dafür ist eine intensive Filterung der zu verwendenden Informationen notwendig, was jedoch technisch aufwändig ist und gegebenenfalls zu mehrdeutigen Ergebnissen führen kann. Deshalb schlagen Wetzker et al. (2008) das Konzept der Aufmerksamkeitsdiffusion vor, die dabei hilft den Einfluss von Spam auf die Verteilung von Tags zu reduzieren, wodurch eine Filterung nicht mehr zwingend notwendig ist. Die Aufmerksamkeit eines Tags wird definiert durch die Anzahl der Nutzer, die den Tag innerhalb einer bestimmten Zeitspanne verwenden. Dementsprechend zeigt sich die Diffusion eines Tags in der Anzahl der Nutzer, die diesen Tag zum ersten Mal benutzen. Dadurch ist man in der Lage, die Wichtigkeit eines Themas durch die Fähigkeit, das Interesse neuer Nutzer zu gewinnen, zu messen. Gleichzeitig ist der Einfluss der einzelnen Nutzer limitiert, wodurch alle Nutzer als gleich relevant angesehen werden. Spamverhalten kann so effizienter als solches erkannt und bei der Analyse der interessierenden Verhaltensmuster berücksichtigt werden.

Take Home Messages

  1. Es gibt gute Alternativen zu Google als Suchwerkzeug – probiert sie aus!
  2. Literaturverwaltungswerkzeuge helfen uns dabei, nicht in der Flut von Literatur zu versinken!
  3. Social Bookmarking als Werkzeug zum Management von Lesezeichen und Möglichkeit des weltweiten Austauschs hält uns auf dem neusten Stand des Geschehens im World Wide Web!

 

Literatur

Beattie, A. (2015). The Story Behind Google‘s Success. Zugriff am 25.11.2016 unter http://www.investopedia.com/articles/personal-finance/042415/story-behind-googles-success.asp

e-teaching.org (2015). Social Boomarking. Zugriff am 27.11.2016 unter https://www.e-teaching.org/technik/kommunikation/socialbookmarking

Hooker, L. (2016). How did Google become the world’s most valuable company? Zugriff am 25.11.2016 unter http://www.bbc.com/news/business-35460398

Jacobson, J. (2016). Suchmaschinenmarktanteile 2015 in Deutschland. Zugriff am 25.11.2016 unter https://www.luna-park.de/blog/26276-suchmaschinenmarktanteile-deutschland/

Jacobson, J. (2016). Suchmaschinenmarktanteile weltweit 2016. Zugriff am 25.11.2016 unter https://www.luna-park.de/blog/9907-suchmaschinen-marktanteile-weltweit-2014/

Kuny, T. & Cleveland, G. (1998). The Digital Library: Myths and Challenges. IFLA journal, 24, 107–113.

mediaTUM (2015). Softwarevergleich Literaturverwaltung. Zugriff am 27.11.2016 unter https://mediatum.ub.tum.de/doc/1271693/1271693.pdf

mediaTUM (2016). Softwarevergleich Literaturverwaltung. Zugriff am 27.11.2016 unter https://mediatum.ub.tum.de/doc/1271693/1271693.pdf

Musiat, J.; Walzel, A.V.; Wenzel, Ch. (2015). Literaturverwaltungsprogramme im Überblick. SLUB Dresden. Zugriff am 27.11.2016 unter https://www.slub-dresden.de/…/Literarturverwaltungsprogramme_im_Überblick.pdf

Nurse Educators (2007). How to conduct an effective and valid literature search. Zugriff am 26.11.2016 unter https://www.nursingtimes.net/roles/nurse-educators/how-to-conduct-an-effective-and-valid-literature-search/217252.article

OnPageWiki – Digitales Marketing Lexikon (2016). Nofollow. Zugriff am 27.11.2016 unter https://de.onpage.org/wiki/Nofollow

OnPageWiki – Digitales Marketing Lexikon (2016). Random Surfer Model. Zugriff am 26.11.2016 unter https://de.onpage.org/wiki/Random_Surfer_Model

OnPageWiki – Digitales Marketing Lexikon (2016). Social Bookmarks. Zugriff am 27.11.2016 unter https://de.onpage.org/wiki/Social_Bookmarks

Spencer, D. (2006). Four Modes of Seeking Information and How to Design for Them. Zugriff am 25.11.2016 unter http://boxesandarrows.com/four-modes-of-seeking-information-and-how-to-design-for-them/

Universitätsbibliothek der HU. Zugriff am 27.11.2016 unter https://www.ub.hu-berlin.de/de/bibliothek-benutzen/literaturverwaltung-1

Wedekind, K. (2016). Suchmaschinen ohne Sammelwut. Zugriff am 25.11.2016 unter http://www.n-tv.de/technik/Das-sind-die-5-besten-Google-Alternativen-article16920821.html

Wetzker, R.; Zimmermann, C. & Bauckhage, C. (2008). Analyzing social bookmarking systems: A del.icio.us cookbook, 26-30.

Zschunke, P. (2004). Googeln im neuen Duden. Zugriff am 04.12.2016 unter http://www.stern.de/digital/computer/edv-begriffe-googeln-im-neuen-duden-3076450.html

 

Bildquellen

Citavi: https://rrzk.uni-koeln.de/sites/rrzk/_processed_/csm_logo_citavi_253af279f4.jpg

Delicious: http://upcity.com/wp-content/uploads/blog/2015/01/delicious-logo.png

Digg: https://upload.wikimedia.org/wikipedia/commons/thumb/1/18/Digg-new.svg/2000px-Digg-new.svg.png

DeuSu: https://deusu.de/images/logo9b.png

EndNote: http://endnote.com/sites/en/files/m/img/og7.png

Google Scholar: http://www.ijasrd.org/in/wp-content/uploads/2015/02/6a00d8341c4eab53ef017ee55622e6970d-800wi.jpg

MetaGer: https://utopia-index.com/0/uploads/16/06/02/2795m5qjn04m/190_120_7/metager-logo-190×120.jpg

PageRank-Algorithmus: http://www.webology.org/2007/v4n3/images/Formula6.PNG

Startpage: https://www.startpage.com/press/startpage_logo_10.gif?

Zotero: https://www.zotero.org/static/download/zotero_logo.png

 

Gestaltung eines Denkwerkzeuges

 

1. Einleitung

Bei der Gestaltung eines Denkwerkzeuges verlassen wir unsere bisherige Position des Bewertenden, um die des Gestaltenden einzunehmen. Dabei verändert sich die Art der Fragestellung, die wir aufwerfen. Bisher haben wir Software (meist nach ihrer Fertigstellung) danach bewertet, wie zufriedenstellend sie die geforderten Aufgaben erfüllt, wie leicht sie zu bekommen ist oder wie gut bzw. intuitiv sie zu bedienen ist. Jetzt sind dies genau die Stufen, die es zu erklimmen gilt, um ein gutes Produkt zu entwerfen.

 

2. Benutzerzentriertes Vorgehen

Da die Mensch-Computer Interaktion immer wichtiger wird, wurde zur Qualitätssicherung eine ISO Norm eingeführt. Die ISO Norm 9241 beschreibt Richtlinien der Mensch-Computer Interaktion. In ihr findet sich das Gestaltungskonzept des benutzerzentrierten Vorgehens wieder. Dieses Vorgehen zeichnet sich dadurch aus, dass es dem Benutzer eine aktive Rolle im Entwicklungsprozess eines Produktes einräumt. Dabei werden die Belange der Benutzer berücksichtigt. Auf die Grundsätze der benutzerzentrierten Gestaltung möchte ich im Folgenden eingehen. (1)

 

  1. Die Gestaltung auf einem umfassenden Verständnis der Benutzer, ihrer Arbeitsaufgaben und ihres Nutzungskontextes.

In diesem ersten Grundsatz sollte der Ursprung einer jeden Entwicklung liegen. Wenn man eine Idee vor Augen hat, an der man arbeiten möchte, sollte man sich immer fragen:

  • Wer sind meine Benutzer? Für wen entwickle ich eigentlich etwas?
  • Was sind ihre Arbeitsaufgaben? Was wollen sie mit dem Geschaffenen eigentlich tun? Welchen Herausforderungen sehen sie sich gegenüber?
  • Wo wollen sie das Produkt benutzen? Beruflich oder privat? Indoor oder Outdoor? Welche speziellen Anforderungen bietet der Nutzungskontext und welche Anforderungen müssen minimal erfüllt sein, damit das Produkt überhaupt genutzt wird bzw. es am Markt konkurrenzfähig ist.

 

Wer sind meine Benutzer? Für wen entwickle ich?

Diese auf den ersten Blick einfach erscheinende Frage birgt schon einige Risiken, da hier Faktoren wie Vorwissen des Benutzers, eventuelle körperliche Beeinträchtigungen oder auch soziale Aspekte wie der demographische Wandel eine Rolle spielen können. Hier sollte eine möglichst barrierefreie Entwicklung angestrebt werden. Eine barrierefreie Entwicklung beschreibt eine Software, die allen Menschen den Zugang oder den Erhalt des eigenen Arbeitsplatzes ermöglicht. Sie wird zum Beispiel durch eine Vorlesefunktion gewährleistet, die es blinden Menschen ermöglicht, das Produkt/die Software zu benutzen. Andere Beispiele wären zum Beispiel ein größenverstellbares Interface, damit jeder Mensch es nach seinen Bedürfnissen anpassen kann.

 

Was sind die Arbeitsaufgaben?

Diese Frage geht Hand in Hand mit den Fragen der Benutzer. Hierbei sollte von der realen Arbeitssituation zur Software hin entwickelt werden. Bei der Überlegung dieser Frage sollte man ebenfalls betrachten, welche Lösungen es derzeit im Arbeitskontext schon gibt und was von den Benutzern als gut und effektiv angenommen wird.

 

Wie ist der Nutzungskontext?

Hier steht die Frage der Gegebenheiten des Nutzungsortes sowie der sozialen Gefüge innerhalb des Nutzungskontextes eine Rolle. Wichtige Einflussgrößen sind dabei nicht nur die physischen Gegebenheiten am Arbeitsplatz, sondern auch wie mit eingegebenen Daten umgegangen und die Sicherheit des Benutzers gewährleistet ist.

Diese drei Punkte werden auch als User Trinity bezeichnet. Diese Anspielung auf die heilige Dreifaltigkeit veranschaulicht, welchen Stellenwert diese Fragen am Anfang (der Genesis) einer jeden Entwicklung haben sollten.

 

  1. Die Benutzer werden in allen Phasen, also während des gesamten Gestaltungs-, und Entwicklungsprozesses, aktiv mit einbezogen

Mit diesem Grundsatz sollte man sich bewusst werden, dass Entwickler und Benutzer nicht zwei Seiten einer Medaille sind, sondern das beide Parteien mit ihrem Wissen helfen können, ein besseres und effektiveres Produkt zu schaffen.

Trotzdem sollte man sich nicht davor verschließen, innovativ zu sein. Das bedeutet, man kann und muss sich an Vorhandenem und den Bedürfnissen der Benutzer orientieren. Aber man darf dabei Kreativität und Innovation nicht aus den Augen verlieren (3). Steve Jobs sagte dazu einmal recht treffend: „ Du kannst Kunden nicht fragen, was sie möchten und es dann versuchen, ihnen zu geben. Bis du fertig bist, wollen sie etwas Neues.“

 

  1. Das verfeinern und anpassen von Gestaltungslösungen wird fortlaufend über den gesamten Designprozess auf Basis der benutzerzentrierten Evaluation vorangetrieben.

Die Benutzer haben mit ihren Bedürfnissen einen ständigen Einfluss auf die Entwicklung. Am Ende jedes Entwicklungsschrittes steht die Bewertung durch die Benutzer, die durch ihr Feedback die Gestaltungslösungen immer weiter verfeinern, bis sich alle mit dem Erreichten arrangieren können und zum nächsten Entwicklungsschritt übergehen.

 

  1. Der gesamte Prozess sieht Iteration vor. Daher werden zur Sicherstellung der Qualität der Ergebnisse die verschiedenen Stadien des Prozesses immer wieder durchlaufen.

Man muss sich bewusst machen, dass eine gute Entwicklung wie ein Kreislauf (iterativ) funktioniert, der solange fortgesetzt werden kann, wie es die Mittel des Unternehmens zulassen. Man sollte nach jedem Entwicklungsschritt seine Ergebnisse durch zukünftige Benutzer evaluieren lassen und die Bewertungen in die Entwicklung einfließen lassen. Dabei ist die Konstruktion eines Produktes nicht abgeschlossen, wenn es auf den Markt gebracht wird. Je länger man den Kreislauf der Entwicklung durchläuft, desto wahrscheinlicher ist es, möglichst viele potentielle Probleme, die bei der Nutzung auftreten können, zu minimieren oder zu beseitigen. Generell muss man sich aber bewusst machen, dass man nie alle Probleme vorher erfassen kann, die potentielle Benutzer mit dem entstehenden Produkt haben können oder haben werden.

 

  1. Bei der Gestaltung wird die gesamte User Experience berücksichtigt

Die User Experience besteht aus

  • der Usability (Gebrauchstauglichkeit),
  • der antizipierenden Nutzung
  • einer emotionalen Bindung an das Produkt nach der Nutzung

Dabei bedeutet die antizipierende Nutzung eine Vorstellung von der Nutzung vor dem tatsächlichen Gebrauch zu haben.

 

  1. Das Gestaltungsteam vereint eine Reihe von fachübergreifenden Kenntnissen und Ansichten

In der Entwicklung eines Produktes sollte darauf geachtet werden, möglichst viele unterschiedliche Perspektiven, Kompetenzen und Charaktere miteinander zu vereinen, um einen breit gefächerten Blick auf das Produkt selbst und seine möglichen Wirkungen auf die Benutzer zu bekommen.

 

Vom Denken zum Denkwerkzeug

Zu Beginn einer jeden Entwicklung steht die Frage: „Was möchte ich eigentlich entwickeln“? Dabei ist es hilfreich, sich als Leitlinie die oben genannte User Trinity ins Gedächtnis zu rufen. Im Folgenden werde ich erläutern, wie man die drei Hauptfragen für sich beantworten kann und welche Werkzeuge bei der Entwicklung einer eigenen Software hilfreich sein können.

Dies werde ich an dem hypothetischen Beispiel einer App für Flüchtlinge erläutern.

Was wollen wir entwickeln?

Warum eine Flüchtlingsapp? Viele der Flüchtlinge besitzen ein Smartphone, um auf der Flucht zu kommunizieren, wissen aber nicht, wohin sie sich wenden sollen, wenn sie es einmal bis hierher geschafft haben. Daher wäre es gut eine App zu entwickeln, um die wichtigsten Fragen, die viele Flüchtlinge gemeinsam haben, zu beantwortet. Mit diesen Überlegungen ist die erste Frage beantwortet. Wir versuchen mit der App eine Lösung für ein real existierendes Problem zu finden.

Wer sind die Benutzer?

Die zweite Frage ist die nach den Benutzern. Unsere Benutzer sind Flüchtende, die meist wenig oder gar kein Deutsch können. Das bedeutet, eine englische oder arabische Sprachversion wäre von Vorteil. Ebenso ist zu beachten, dass die App kostenfrei zur Verfügung stehen sollte und möglichst aktuell gehalten werden kann, um den Menschen schnelle Hilfe zukommen zu lassen. Dabei ist es wichtig, durch Kommunikation möglichst genau zu erfahren, was die Bedürfnisse der Benutzer sind.

Der Nutzungskontext

Es gibt zwei Arten, den Nutzungskontext zu bestimmen:

  • Analytisch (über Klassifikationen oder Dokumenten)
  • Empirisch (Über Interviews und Beobachtungen)

In unserem Beispiel ist es zu empfehlen, sowohl um die Benutzer als auch den Nutzungskontext besser kennen zu lernen, Interviews zu führen.

Die Anforderungsanalyse

Hat man geklärt, was man entwickeln möchte und wer die Benutzer sind, ist der nächste Schritt die Anforderungsanalyse. Diese beschreibt, welchen Anforderungen das zu entwickelnde Produkt gerecht werden muss. Dabei sind im Wesentlichen drei Punkte zu beachten:

  • Die Entwickler sollten den Status quo verbessern
  • Unterschiedliche Bedürfnisse von Auftraggebern und tatsächlichen Nutzern sollen berücksichtigt werden
  • Gemeinsame Verständigung und Kompromissfindung zwischen allen Personengruppen bezüglich der Anforderungen an das Resultat

Dabei sollten die Entwickler die Situation der Flüchtlinge verbessern und zum Beispiel die Weg zu konkreter Hilfe ebnen. Zum Beispiel zu einer Unterkunft, die entsprechende Kapazitäten zur Verfügung hat. Auf der anderen Seite muss es den Einrichtungen möglich sein, ihren Status innerhalb der App zu ändern um nur so viele Menschen zugeleitet zu bekommen, wie sie auch betreuen können.

 

Eine Gestaltlösung entwickeln

Hat man die Benutzer, den Nutzungskontext und die Anforderungsanalyse durchlaufen ist es nun an der Zeit, konkrete Gestaltlösungen für aufkommende Probleme zu entwerfen.

Dazu gibt es einige nützliche Werkzeuge, mit denen ein Gestaltungsteam sehr früh zu guten Resultaten kommen kann, auch ohne vertiefende Programmierkenntnisse.

 

Prototypen

Da Gestaltlösungen nicht sofort realisiert werden können bietet es sich an, Prototypen zu erstellen, um einzelne Funktionen der Gestaltlösung zu überprüfen. Dabei unterscheidet man zwei Arten von Prototypen.

 

Low fidelity: genannt Mock–ups , Prototypen aus Papier, Pappe oder anderen billig zu beschaffenden und gut veränderbaren Materialien, um möglichst schnell eine Idee oder eine Verbesserung an den Benutzer zu bringen.

Vorteil:

Low fidelity Protoypen können recht einfach erstellt werden und bieten den Entwicklern die Möglichkeit, die Benutzer schon in einer sehr frühen Phase der Entwicklung mit ins Boot zu holen und deren Feedback zu nutzen.

Nachteil:

Die dargestellten Prototypen müssen mit dem tatsächlichen Endprodukt nicht viel gemeinsam haben und können für die Benutzer noch recht abstrakt und abschreckend sein.

 

High fidelity: voll funktionsfähige Systeme

Vorteil:

Diese Produkte besitzen schon den vollen Bedienumfang. Die Benutzer können sich ein umfangreiches Bild machen.

Nachteil:

Feedback der Benutzer kann nur noch schwer eingearbeitet werden. Der Benutzer kommt erst in einer sehr späten Phase der Entwicklung mit dem Produkt in Kontakt.

 

Andere Arten von Prototypen für das Entwerfen von Software mit Stift und Papier

Storyboards

storyboards

Comichafte Darstellung von Software oder Nutzungsabläufen

Dabei kann man schon recht früh sehen, wie sich der Nutzer im Umgang mit der Software verhält.

 

Wireframes

Wireframes

Drahtgerüst einer Software auf Papier.

 

Walkthrough

Ein Walkthrough ist eine Kombination der oben genannten Werkzeuge, bei denen der Benutzer zum Beispiel eine Anwendung, die er in der Software durchführen würde, mittels verschiedener Storyboards oder Wireframes durchläuft. Eine spezielle Form dieser Technik ist der Cognitive Walkthrough. Dabei versetzt sich der Entwickler in die Rolle eines Benutzers und versucht verschiedene Abläufe durchzuführen, um eventuelle Probleme zu finden. Hier ein Beispielvideo, um dieses Vorgehen zu veranschaulichen.

User Cases

Ein beispielhafter Ablauf, was man mit der Software machen kann.

Use Cases

Am Beispiel:

App herunterladen → wie bekomme ich ein Grundversorgungsset → wo sind noch Betten frei….

User Cases bieten sich bei der Anforderungsanalyse an um die Bedürfnisse der Auftraggeber und der Benutzer in Einklang zu bringen.

Im Beispiel, die der Bundesrepublik Deutschland und der Flüchtlinge

Evaluation

Am Ende jedes Prozessschrittes steht die Evaluation. Diese sollte nach vorgegebenen Methoden und mit klaren Zielen erfolgen.

Ein Ziel sollte zum Beispiel sein, dass die Menschen eine Information in einer bestimmten Zeit erhalten. Um dies zu evaluieren, könnte man Videoaufnahmen machen, um zu überprüfen, wie gut der jeweilige Entwicklungsschritt durchlaufen wurde und ob man seinem Ziel näher gekommen ist.

Quellen

(1) https://de.wikipedia.org/wiki/EN_ISO_9241

(2) http://www.di-ji.de/index.php?option=com_content&view=category&layout=blog&id=91&Itemid=113&lang=de

(3) http://www.affenblog.de/steve-jobs/

 

Gestaltung eines Denkwerkzeugs am Beispiel Groupware

 

 

 

Kommunikation

Kommunikation ist alles

Indem du liebe*r Leser*in diesen Satz gelesen hast, habe ich es geschafft dir eine Botschaft zu senden. Wir sind also schon mitten in einer Kommunikation. Zugegeben ist diese ein wenig asymmetrisch, da du mir nicht unmittelbar antworten kannst – wir teilen also weder Raum noch Zeit. Trotzdem kannst du von Empfänger*in in Sender*in wechseln, indem du die Kommentarfunktion benutzt, obwohl du nicht damit rechnen kannst, dass ich auf deine Reaktion wiederum prompt oder überhaupt reagiere. Du kannst dich natürlich auch dafür entscheiden die nächsten 15.000 Zeichen nicht mehr weiter zu enkodieren und den Blog zu verlassen und unsere Kommunikation wäre an dieser Stelle beendet. Lass mich dir zuvor ein paar Argumente nennen – vielleicht kann ich dich überzeugen noch eine Weile hierzubleiben.

Was erwartet dich nun?

  1. eine intuitive Zusammenführung von Wissensmanagement und Kommunikation
  2. eine kurze und knappe Definition von Kommunikation
  3. die Vorstellung von ausgewählten Kommunikationsmodellen anhand eines liebevoll gezeichneten Comics
  4. die Bewertung von Kommunikationswerkzeugen im Wissensmanagement anhand von Kommunikationssimulationen innerhalb einer Seminarübung
  5. Bruchstückhaftes Aufzeigen von neuen Entwicklungen in der Kommunikation
  6. ein Schlusswort

1. Wissensmanagement & Kommunikation

Hinter dem Begriff Wissensmanagement versteckt sich das Zusammenspiel von Menschen und Sachmitteln, um Wissen zu generieren und anzuwenden. Gerade in Unternehmen spielt Wissensmanagement eine bedeutende Rolle, da Wissen Macht und somit auch einen Wettbewerbsvorteil darstellt (Linde, 2004). [Für eine ausführliche Darstellung von Wissensmanagement siehe folgenden Blogbeitrag.]

Die Frage wie nun Wissensmanagement und Kommunikation zusammengehören, kann meiner Meinung nach am ehesten mit einer Gegenfrage beantwortet werden:

Wie soll Wissen geteilt, vermehrt, verarbeitet, genutzt und missbraucht werden ohne Kommunikation?

2. Definition von Kommunikation

Kommunikation leitet sich vom lateinischen Wort communicatio ab, was mit Mitteilung übersetzt werden kann. Menschen verbringen einen großen Teil ihrer Zeit damit sich anderen oder sich selbst mitzuteilen (Röhner & Schütz, 2013). Kommunikation als Begriff ist sehr komplex und breit aufgestellt und dadurch umso schwieriger zu definieren. Nachfolgend werden sechs intuitive Merkmale zur Beschreibung von Kommunikation von Röhner und Schütz (2013) aufgezählt, die den Kommunikationsbegriff enger einkreisen sollen.

Merkmale der Kommunikation modifiziert nach Röhner & Schütz (2013, S. 5)

  1. Es gibt Teilnehmer*innen.
  2. Es gibt eine Nachricht.
  3. Es gibt Mittel und Modalitäten zum Zweck der Kommunikation.(Beispiele: synchron vs. asynchron, direkt (mündlich) vs. technisch vermittelt (Telefon, PC), analoge (Brief) vs. digital (Internet, Skype))
  4. Kommunikation ist kontextgebunden und Teilnehmende üben verschiedene Aktivitäten aus.
  5. Kommunikation ist interaktiv.
  6. Kommunikation ist mehr oder minder intentional.

3. Kommunikationstheorien

Es gibt viele Theorien, die sich der Kommunikation aus verschiedenen Perspektiven und Disziplinen nähern. Im folgenden sollen fünf ausgewählte Modelle kurz erläutert werden, die jeweils ganz unterschiedliche Aspekte von Kommunikation betrachten und betonen und sich eher ergänzen als dass sie sich wiedersprechen (Röhner & Schütz, 2013).

Shannon & Weaver

In den 40er Jahren des letzten Jahrhunderts schlugen Shannon und Weaver ein Kommunikationsmodell vor, dass vor allem die Verschlüsselung und Entschlüsselung von Nachrichten aus einer technischen Perspektive beleuchtet (Abb. 1). Hauptaugenmerk hierbei ist die Übertragung und der Empfang von Nachrichten, die in den nächsten Sätzen kurz dargestellt werden (Röhner & Schütz, 2013).

Am Anfang enkodiert der*ie Sender*in eine Nachricht z.B. mit einem Telefon in Signale. Diese werden über einen Übertragungskanal (z.B. Telefonleitungen) übermittelt. Die Aufgabe des*r Empfängers*in ist es die Signale wieder zu einer Nachricht zu dekodieren. Die Übertragung kann durch Rauschen (z.B. Störungen in der Leitung) gestört werden. Damit Nachrichten richtig ver- sowie entschlüsselt werden können, bedarf es neben einem funktionierenden Übertragungsweg auch ein gemeinsames Zeichen- und Symbolrepertoire und einen gemeinsamen Erfahrungs- und Wissenshintergrund von Empfänger*in und Sender*in (Röhner & Schütz, 2013).

Shannon Weaver

Abbildung 1: Shannon & Weaver (modifiziert nach Röhner & Schütz, 2013)

Schulz von Thun

Auch von Thun behandelt in seinem Model die Ver- und Entschlüsselung von Botschaften, jedoch nach anderen Gesichtspunkten. Nach von Thun hat eine Nachricht immer vier sog. Seiten, die in einer Kommunikation unterschiedlich stark ausgeprägt sind und diese beeinflussen (Röhner & Schütz, 2013). Anhand des Beispielsatz im Comic (Abb. 2) „Magst du den Müll runterbringen?“ können wunderbar die vier Seiten vorgestellt werden.

  1. Sachebene: Sachinformationen, die in einer Nachricht enthalten ist. („Der Müll ist voll.“)
  2. Selbstoffenbarung: Sender*in gibt Informationen über sich selbst in einer Nachricht preis. („Der Müll ist wieder voll und es stört mich.“)
  3. Appell: Intention, die in einer Nachricht vorhanden ist. („Bring den Müll runter.“)
  4. Beziehungsaspekt: Wie eine Nachricht formuliert wird, ist im Kontext der Beziehung zu sehen. („Möchtest du mir nicht einen Gefallen tun?“)

Eine gelungene Kommunikation hängt in diesem Modell vor allem davon ab, ob die jeweiligen Kommunikationspartner in der Lage sind die jeweiligen Botschaften korrekt zu ver- und/oder zu entschlüsseln und die Nachricht in Hinblick auf die vier Ebenen richtig gedeutet wird (Röhner & Schütz, 2013).

Schulz von Thun

Abbildung 2: Schulz von Thun (modifiziert nach Röhner & Schütz, 2013)

Watzlawick

Die Kommunikationstheorie von Watzlawick und Kollegen*innen ist dem Konstruktivismus zuzuordnen. Zentrale Annahme ist, dass durch Kommunikation bzw. Dialog eine gemeinsame Wirklichkeit zwischen den Gesprächspartnern*innen konstruiert wird. Ein Fokus wird insbesondere auf die dynamischen, interaktiven und kreisförmigen Aspekte der Wirklichkeitskonstruktion gelegt (Röhner & Schütz, 2013). Ähnlich wie von Thun wird der Beziehungs- und Inhaltsaspekt von Nachrichten betont, welche nur zusammengenommen die Interpretation von Aussagen ermöglichen (Langenmayr, 1997). Watzlawick und Kollegen*innen formulierten weiterhin fünf Axiome, die den Versuch darstellen, den Kern von Kommunikation zu beschreiben (Bender, 2014). Im Comic (Abb. 3) hat das erste Axiom weitreichende Folgen für den weiteren Kommunikationsverlauf.

Watzlawick – 5 Axiome modifiziert nach Bender (2014)

  1. Man kann nicht nicht kommunizieren.
  2. Jede Kommunikation hat einen Inhalts- und einen Beziehungsaspekt […].
  3. Die Natur einer Beziehung ist durch die Interpunktionen der Kommunikationsabläufe seitens der Partner*innen bestimmt.
  4. Menschliche Kommunikation bedient sich analoger und digitaler Modalitäten.
  5. Zwischenmenschliche Kommunikationsabläufe sind entweder symmetrisch oder komplementär […].
5 Axiome

Abbildung 3: Watzlawick

Grice

Der Frage wie Kommunikation gelingen kann, widmet sich Grice, der besonders den kooperativen Prozess von Kommunikation in den Blickpunkt seiner Theorie genommen hat. Grundvoraussetzungen für eine (gelungene) Kommunikation ist ein Mindestmaß an Kooperationsbereitschaft der beteiligten Personen (Grice, 2000; Röhner & Schütz, 2013). Aus dem Kooperationsprinzip leitete Grice vier Konversationsmaximen ab, die er in seinem Werk ‚Logik und Kommunikation’ jeweils mit Imperativen näher beleuchtet (Grice, 2000). In dem Comic (Abb. 4) sind mit der Aussage „Nö!“ alle Maximen seitens des*r Senders*in erfüllt.

4 Konversationsmaximen modifiziert nach Grice (2000, S. 168-169)

  1. Maxime der Quantität
    • Mache deinen Beitrag so informativ […] wie nötig.
    • Mache deinen Beitrag nicht informativer als nötig.
  2. Maxime der Qualität
    • Sage nichts, was du für falsch hältst.
    • Sage nichts, wofür dir angemessene Gründe fehlen.
  3. Maxime der Relation
    • Sei relevant!
  4. Maxime der Modalität
    • Sei klar!
    • Vermeide Dunkelheit des Ausdrucks.
    • Sei kurz […].
    • Der Reihe nach!
Grice

Abbildung 4: Grice (modifiziert nach Grice, 2000)

Johari Window

Eine weitere Möglichkeit wie Kommunikation betrachtet werden kann, wird im Johari Window deutlich, indem die Beziehung zwischen den Kommunikationspartnern*innen und die damit einhergehende Selbst- und Fremdwahrnehmung aus gruppendynamischer Sicht beleuchtet wird (Chapman, 2014). Das Modell von Joseph (Jo) Luft und Harry (har) Ingham (i) bildet in seinen vier Fenstern bewusste und unbewusste Persönlichkeits- und Verhaltensmerkale ab. In einer Kommunikation offenbaren sich Kommunikations-partner*innen und nehmen sich gegenseitig war. Das was sie bewusst zeigen, wird in dem Modell mit öffentlich gekennzeichnet. Der*ie Sender*in kann jedoch auch bewusst etwas geheim halten, was als Geheimnis bezeichnet wird. Der*ie Empfänger*in nimmt vielleicht etwas wahr, das dem*r Sender*in gar nicht bewusst ist und sich wie ein blinder Fleck verhält. Abschließend existiert in diesem Modell auch ein Bereich, der keinem*r der Gesprächspartner*innen zugänglich ist und mit dem Begriff unbekannt beschrieben wird (Chapman, 2014). In dem Comic (Abb. 5) hält der*ie Sender*in die wütenden Gedanken versteckt und teilt diese nicht mit.

Johari Window

Abbildung 5: Johari Window (modifiziert nach Chapman, 2014)

Wie nun die Kommunikation um den Müll weitergeht, verraten dir die Abbildungen 6 und 7.

4. Übung zur Wissensvermittlung

Innerhalb des Seminars ‚Denkwerkzeuge im Wissensmanagement’ sollte eine kleine Portion Wissen in Form einer Kommunikationsübung vermittelt werden. Eigentliches Ziel der Übung war es vier verschiedene Kommunikationswerkzeuge dahingehend zu bewerten, ob diese für erfolgreiches Wissensmanagement geeignet sind sowie Vor- und Nachteile zu erkennen. Insgesamt wurden vier Kommunikationssimulationen parallel durchgeführt in denen folgende Werkzeuge involviert waren: face to face Gespräch, Brief, Skype mit Video, facebook messenger. Nachfolgend werden die Ergebnisse der Übung zusammen mit meinen eigenen Beobachtungen in Steckbriefen dargestellt.

FaceSkypeBrieffb

5. neue Entwicklungen in der Kommunikation

Neben den unter 4. genannten Werkzeugen fand und findet immer noch eine extreme (Weiter-)Entwicklung hinsichtlich Kommunikation und Technik statt. Wie sich im Internetzeitalter und dem daraus resultierenden Ausbau der Netzte und Weiterentwicklung der digitalen Technik, Kommunikation verändert, untersucht u.a. Bublitz (2013). War Kommunikation noch bis vor kurzem meist durch Dualismus der Teilnehmer*innen geprägt und fand vor allem in analoger mündlicher und schriftlicher Form statt, wird Kommunikation heutzutage durch digitale und elektronisch vermittelte Technik stark beeinflusst. Sprache (mündlich z.B. Videotelefonie/schriftlich z.B. multilinear & hypertextuell) hat auch in der digitalen Welt noch die größte Bedeutung, die stätig durch Zuwachs an auditivem und bildlichem Material zunehmend ergänzt wird. Jedoch verändert sich laut Bublitz (2013) die Struktur von Kommunikation in dem Sinn, dass die Rollen der Teilnehmer*innen nicht mehr klar in Sender*in und Empfänger*in aufgeteilt werden können. Aufgrund der enormen Verfügbarkeit von Wissen und der ständigen Möglichkeit sich über z.B. Smartphone etc. mitzuteilen, findet immer mehr Interaktion statt. Jede*r kann Produzent*in und Rezipient*in sein und Kommunikation wird immer unüberschaubarer, insbesondere in der Bewertung des sich ständig erweiternden Wissens (Bublitz, 2013). Neben der Veränderung der Struktur von Kommunikation ergibt sich durch die neuen Entwicklungen auch eine zunehmende Abhängigkeit von modernen Kommunikations-werkzeugen (z.B. Smartphone), die durch eine ständige Erreichbarkeit und dem damit verbundenen Drang sich mehrmals täglich mitzuteilen verstärkt wird. Insgesamt berichtet Bublitz von einem Kulturpessimismus und einer Technologieskepsis im öffentlichen Diskurs, die er nicht teilt und die sich entwickelnden Medien- und Technologiekompetenz entgegensetzt (eine ausführliche Darstellung findet sich in Bublitz: Der duale Internetnutzer: Ansätze einer dissoziativen Kommunikation).

Auch Runkehl (2013) stimmt mit Bublitz überein, dass ständige Kommunikation und von Wissen Verfügbarkeit einen Einfluss auf Struktur von Kommunikation ausüben. Er betont jedoch vor allem die enorme Freiheit und Informationsfülle im Internet, welches auch ein extremes Gestaltungspotential sowohl für Rezipienten*innen als auch für Produzenten*innen birgt. In der Kommunikation in der digitalen Welt ändern sich jedoch nicht nur Teilnehmer*innenrollen, sondern auch die Art zu Kommunizieren an sich. Es ist leicht vorstellbar, dass jemand in einer Mail (individuell) anders kommuniziert als in einem frei zugänglichen Blog (öffentlich) wie dieser hier einer ist. Das man je nach benutztem Medium und Zielgruppe anders kommuniziert ist nichts neues, nur wird im Internet das Spektrum vervielfacht. Ein Entgegenwirken von Qualitätsverlust von Informationen sieht Runkehl in der Zusammenarbeit von Experten*innen und Laien*innen im Netz, die ihr Wissen in Ebenen gegliedert zu Verfügung stellen (mehr dazu siehe Runkehl: Die Ordnung digitaler Unordnung).

Der Frage welche Kommunikationswerkzeuge für erfolgreiches Wissensmanagement im beruflichen Kontext geeignet sind, ist sehr schwer zu beantworten. Wenn in einem Unternehmen neue Werkzeuge eingeführt werden wie z.B. Einführung von Videokonferenzen mit betreffender Technik, muss das nicht allen Mitarbeitern*innen gefallen oder von diesen genutzt werden. Eine Umfrage zu Kommunikation im Betrieb von der Aixvox GmbH ergab, dass 60% der Mitarbeiter*innen Videotelefonie bei der beruflichen Kommunikation nutzen, jedoch 40% nicht (Artelt, 2012). Gründe für ein ‚Nichtbenutzen’ von neuen kommunikativen Möglichkeiten kann zum Einen in den persönlichen Erfahrungen und Vorlieben bezüglich Kommunikation eines*r jeden einzelnen gesucht werden. Hier ist es umso wichtiger, dass Mitarbeiter*innen in neuen Techniken etc. geschult werden, damit Hemmungen abgebaut werden und alle von den neuen Entwicklungen profitieren und diese auch erfolgreich anwenden können (Artelt, 2012). Aber nicht jede neue technische Errungenschaft muss auch gut sein. Eine Übersicht von Usabilityansätzen um neue Entwicklungen in der Kommunikation im Zeitalter des Internets zu bewerten, wird von Jakobs (2013) beschrieben. Kommunikative Usability verbindet linguistische Forschungsergebnisse mit gängigen Usabilitykonzepten von elektronischen Kommunikations- und Interaktionswerkzeugen, wobei sprachliche Anteile enger ins Blickfeld genommen werden (mehr dazu siehe Jakobs: Kommunikative Usability).

6. Schlusswort

Liebe*r Leser*in, das spannende an Kommunikation ist meiner Meinung nach, dass sie alltäglich ist und häufig gelingt, obwohl sie ungemein komplex und bedeutsam für uns ist. Der Blogbeitrag sollte dazu dienen dir einen kleinen Einblick in die Betrachtungsweise von Kommunikationswerkzeugen im Wissensmanagement zu geben sowie Modelle und neue Entwicklungen von Kommunikation zu präsentieren. Dass du am Ende dieses Blogbeitrag angelangt bist, zeigt entweder, dass dieser Eintrag interessant genug für dich war ihn vollständig zu lesen – was mich sehr freuen würde – oder dass du bis zum Ende runtergescrollt bist ohne ihn gelesen zu haben. Aber egal wie es nun wirklich war – es ist alles Kommunikation. Und vielleicht hast du nun Lust dich weiter mit Kommunikation auseinanderzusetzen oder mir einen Kommentar dazulassen, um dich von einem*r Empfänger*in in eine*n Sender*in zu verwandeln.

Quellen

Artelt, D. (2012). Neue Kommunikationskanäle sinnvoll nutzen. Online verfügbar unter: http://www.aixvox.com/neue-kommunikationskanale-sinnvoll-nutzen/ [03.12.2015].

Bender, S. (2014). Paul Watzlawick über menschliche Kommunikation. Online verfügbar unter: http://www.paulwatzlawick.de/index.html [01.12.2015].

Bublitz, W. (2013). Der duale Internetnutzer: Ansätze einer dissoziativen Kommunikation. In K. Marx & M. Schwarz-Friesel (Hrsg.), Sprache und Kommunikation im technischen Zeitalter : wieviel Technik (v)erträgt unsere Gesellschaft? (S. 26-52). Berlin [u. a.]: De Gruyter.

Chapman, A. (2014). Joahri Window. Online verfügbar unter: http://www.businessballs.com/johariwindowmodel.htm [01.12.2015].

Grice, H. P. (2000). Logik und Konversation. In L. Hoffmann (Hrsg.), Sprachwissenschaft: Ein Reader (2. verb. Aufl.). Berlin: de Gruyter.

Jakobs, E.-M. (2013). Kommunikative Usability. In K. Marx & M. Schwarz-Friesel (Hrsg.), Sprache und Kommunikation im technischen Zeitalter : wieviel Technik (v)erträgt unsere Gesellschaft? (S. 119-142). Berlin [u. a.]: De Gruyter.

Langenmayr, A. (1997). Sprachpsychologie. Göttingen: Hogrefe.

Linde, F. (2004). Wissensmanagement: Ziele, Strategien, Instrumente. In G. Müller-Christ & M. Hülsmann (Hrsg.), Modernisierung des Managements (S. 301 – 342). Wiesbaden.

Röhner, J. & Schütz, A. (2013). Psychologie der Kommunikation. Wiesbaden: Springer VS.

Runkehl, J. (2013). Die Ordnung digitaler Unordnung. In K. Marx & M. Schwarz-Friesel (Hrsg.), Sprache und Kommunikation im technischen Zeitalter : wieviel Technik (v)erträgt unsere Gesellschaft? (S. 53-67). Berlin [u. a.]: De Gruyter.

Abbildungen

Abb. 1-7: Striches*chen Comic (2015) © Autor*in des Beitrags (Inhalte jeweils modifiziert nach aufgeführtem Autor siehe Bildunterschrift)

Die Planung der Gestaltung

Man muss die Dinge so einfach wie möglich machen. Aber nicht einfacher.

Albert Einstein

Unbenannt.1

Die Aufgabe in diesem Seminar ist es, selbst ein Denkwerkzeug im Team zu gestalten, also den Sprung in die Praxis zu wagen und Gelerntes anzuwenden. Das will geplant sein.

Zunächst muss natürlich klar sein, was man gestalten will. Soll ein neues Denkwerkzeug entwickelt werden oder ein bestehendes verbessert? Um den Ideenfluss in Gang zu bringen, notieren die Seminarteilnehmer zunächst in 60 Sekunden so viele Denkwerkzeuge wie möglich, die ihnen spontan zum Gestalten einfallen. Die Ideen werden ausgetauscht und die praktikablen Vorschlägen finden jeweils Anhänger, so dass sich Gestaltungsteams bilden. Nun ist zu überlegen, welche Aufgaben soll das geplante Werkzeug erfüllen und in welchem Umfang? Wo soll es eingesetzt werden und wer soll es benutzen? Das Ziel unserer Entwicklung sollte möglichst klar formuliert werden.

Unbenannt.2

Woran können wir uns bei der Planung orientieren?

Um das – möglicherweise noch etwas vage – Ziel mit größtmöglicher Wahrscheinlichkeit zu erreichen, gibt es Orientierungen. Eine mögliche ist die bereits an anderer Stelle erwähnte ISO-Norm 9241-210 (2010). Sie ist eine Richtlinie für einen iterativen und benutzerzentrierten „Prozess zur Gestaltung gebrauchstauglicher Systeme“. Das bedeutet, dass der Nutzer im Zentrum der Gestaltung steht und mit seinen Bedürfnissen, Kompetenzen und Aufgaben im jeweiligen Anwendungskontext über die gesamte Entwicklung erfasst werden muss. Ein neuer Lösungsvorschlag erfüllt Anforderungen erst dann, wenn er erfolgreich mit dem Anwender evaluiert wurde. Das zu entwickelnde Werkzeug soll ihn in der Ausführung seiner Aufgaben optimal unterstützen. Also: keep it simple!

Aufgabenbereiche

Unbenannt.3

Es bietet sich an, die Gestaltung in einzelne Aufgabenbereiche zu unterteilen, die nicht zeitlich nacheinander, sondern wiederholend (iterativ) oder sogar parallel durchgeführt und geplant werden sollten. Sie greifen sozusagen wie Puzzleteile ineinander.

Anforderungsanalyse

Da die Analyse der zentrale Ausgangspunkt für die Benutzerzentrierte Gestaltung ist, soll auf den Blog “Gestaltung eines Denkwerkzeuges” mit detaillierterer Ausführung verwiesen sein. Zusammengefasst geht es darum, den Benutzer in seinem Anwendungskontext zu verstehen. Zielgruppe und Nutzungskontext entscheiden über die tatsächliche Qualität des Werkzeuges. Wir sollten uns also konkret fragen: Welche Informationen brauchen wir für unsere Entwicklung hinsichtlich Nutzer, Aufgaben und Kontext? Ziel der Analyse ist es, den Soll-Zustand des geplanten Werkzeuges festzulegen. Dazu muss man ihn bei der anvisierten Zielgruppe erfragen, ihre Bedürfnisse heraushören, vielleicht ein Wunschbuch anlegen. Und es ist wichtig, den Ist-Zustand durch Einfühlen und genaue Beobachtung zu analysieren: Welche Aspekte sind wichtig?

Hier sind eigene Ideen und ggf. etwas Mut gefragt, um an aufschlussreiche Informationen heranzukommen. Eine umfangreichere Methode ist z.B. Contextual Inquirydie Beobachtung mit parallelem Interview der Beteiligten am Ort des Geschehens. Sie ist geeignet, wenn die Zielgruppe in einem klaren Kontext gut zugänglich ist. Unterschiedliche Aspekte wie genutzte Handlungsstrategien beim Einsatz der bisherigen Werkzeuge werden untersucht. Kontext (wie das physische Umfeld) und Nutzung (wie kulturelle Einflüsse) der geplanten Lösung werden detailliert beleuchtet. Dabei stößt man auf Verbesserungswünsche und Bedürfnisse der Benutzer und analysiert die vorhandenen Kompetenzen. Unbenannt.4

Die Methode bietet sich auch zu einem späteren Zeitpunkt an, wenn bereits ein Prototyp entwickelt ist, der sich Vorort auf diese Weise evaluieren lässt.

Je nach Zielgruppe und persönlichen Zugangsmöglichkeiten sind aber auch die Initiativ-Befragung am Telefon, im öffentlichen Raum oder unter Freunden und eine verdeckte bzw. offene Beobachtung zielführend. Nähere Ausführungen finden sich dazu im Blog zum „design thinking“. Außerdem sollte recherchiert werden, was an Anwendungen im anvisierten Aufgabenbereich bereits existiert, um vom aktuellen Stand zu lernen.

Für die Planung derartiger Aktivitäten müssen unsere vorhandenen Rahmenbedingungen bedacht werden: Wie verfügbar sind die Benutzer für Beobachtungen oder Interviews? Welche zeitlichen, räumlichen, finanziellen Beschränkungen liegen in den einzelnen Teams vor, welche Kontakte können wir nutzen etc.?

Auch wenn die Wünsche und Bedürfnisse der Nutzer die Grundlage für die Gestaltung sind, muss geschaut werden, was tatsächlich machbar ist.

Die gesammelten Informationen werden in den Teams zusammentragen, strukturiert und diskutiert. Erkenntnisse aus der Analyse von Benutzern und Kontext können z.B. in sog. Personas umgesetzt werden.

Personas sind prototypische Benutzer, die deren unterschiedlichen Ziele, Verhaltensweisen u. Eigenschaften verkörpern. Eine Persona beinhaltet neben Name, Alter, Geschlecht u.a. markige Charakterzüge und weiche Kriterien wie Ziele, Werte und Ängste. Sie kann durch passende Zitate aus Interviews unterfüttert und mit einem Porträt zu einer Art „Steckbrief“ ergänzt werden. Durch die Kategorisierung in primäre und sekundäre und Non-Personas umgrenzt man seine Zielgruppe und kann die Anwendung noch spezifischer darauf zuschneiden. Die Anzahl der erstellten Personas sollte möglichst klein gehalten werden. Personas sind als ein mögliches Benutzerprofil auch eine Richtlinie, welche Eigenschaften die Nutzer haben sollten, die bei der Evaluierung der Entwicklungsschritte rekrutiert werden. Sie helfen ebenfalls die Perspektive der anvisierten Benutzer einzunehmen und aus deren Sicht zu diskutieren.

Fürchte Fehler nicht, es gibt keine.  

Miles Davis

Modellieren

Hier geht es um das Finden und Optimieren von Gestaltungslösungen, um die analysierten Anforderungen zu erfüllen. Das bedeutet: Raum für Innovation und kreativen Austausch. Um auf neue, ggf. ungewöhnliche Lösungen zu kommen, könnte sich z.B. die sogenannte Collage-Technik nach dem Prinzip „Bilder füllen den Brunnen“ anbieten. Auch hier arbeitet man mit „Zeitbegrenzung“, um die spontane Kreativität anzuregen. Nachdem man sich kurz auf sein Ziel konzentriert hat, werden aus beliebig gesammelten Illustrierten in 20 Minuten zunächst so schnell wie möglich Bilder herausgerissen, die einem spontan ins Auge springen. In den verbleibenden Minuten klebt oder legt man die ausgewählten Bildteile auf ein leeres Blatt. Dadurch kann ein schöpferischer Prozess angestoßen werden. Die „chaotisch“ gefundenen Bilder fügen sich oft unerwartet interessant zusammen und regen Assoziationen zur Gestaltungsfindung an. Weitere Anregungen vor allem für die gemeinsame Kreativität bietet der Blog „design thinking“.

Unbenannt.10

Damit alle Mitglieder eines Teams eine genaue Vorstellung von dem haben, was entwickelt werden soll, hilft es ein sogenanntes Begriffsmodell (conceptual model) zu erstellen.

Das Begriffsmodell ist sozusagen das „Skelett“ des Systems. Es beschreibt, was der Nutzer mit dem System machen kann und welche Begriffe bzw. Konzepte er braucht, um zu verstehen, wie es funktioniert. Dazu müssen die in der Anwendung relevanten Begriffe oder Konzepte, die aus der Analyse gewonnen wurden, definiert und abgrenzt werden (Begriffslexikon). Der Nutzer muss eindeutig erkennen, was jeweils in diesem Kontext gemeint ist. So weiß z.B. ein Bibliotheks-Kunde, dass es sich bei Leihobjekten im Zusammenhang einer Bibliothekssoftware um Bücher, Zeitschriften etc. handelt. In einem Diagramm lässt sich die Vernetzung dieser Begriffe, ihre Assoziationen untereinander übersichtlich darstellen ebenso wie die Aktionen, die man mit ihnen durchführen kann. Die Begriffe können hierarchisch geordnet und durch Attribute gekennzeichnet sein bzw. zu Klassen generalisiert werden. So sind die einzelnen Medien (Buch, Zeitschrift, …) im erwähnten Beispiel Klassen des Oberbegriffs „Leihobjekt“. Das Begriffsmodell sollte so einfach und Aufgabenfokussiert wie möglich sein. Je direkter die Zuordnung zwischen der Operation des Systems und dem entsprechenden Aufgabenbereich, desto höher die Chance dass die angestrebte Lösung korrekt reproduziert und durch die Nutzer entsprechend angenommen wird.

Unbenannt.5

Ein solches Modell ist zentraler Koordinations-Ausgangspunkt für alle Team-Mitglieder, die das Werkzeug entwickeln und designen. Neben dem klärenden Aspekt kann man u.a. anhand dieser rohen Funktionsdarstellung sehen, welche Konzepte häufiger frequentiert werden und die entsprechenden Operationen einfacher gestalten. Dem „Skelett“ wird dann „Fleisch um die Knochen“ gegeben.

Nach dem Begriffsmodell lassen sich Szenarien und Use Cases schreiben, um die Nutzung der Anwendung zu veranschaulichen. Dabei sollte die im Modell genutzte Terminologie verwendet werden.

Szenarien beschreiben anhand eines konkreten Falles, wie die Benutzer das neue Werkzeug in der Realität einsetzen werden. Hier wird die Fähigkeit des menschlichen Gehirns genutzt, aus Beispielen Regeln abzuleiten. Durch die Wiedergabe markanter Interaktionsbeispiele kann die Anwendung des geplanten Werkzeuges schon früh und noch ohne genaue Details anschaulich umrissen werden. Dabei beschreiben sie neben dem Idealverlauf auch exemplarisch wichtige Ausnahme- und Fehlersituationen. Szenarien können zu unterschiedlichen Zeitpunkten in der Gestaltung entwickelt werden und unter verschiedenen Perspektiven der Anwendung. Man kann entweder die erstellten Personas dafür nutzen oder sie werden zusammen mit den potentiellen Benutzern erarbeitet.

Use Cases dienen u.a. zur Überprüfung der Zuverlässigkeit unserer Neuentwicklung. Zur frühzeitigen Veranschaulichung und Evaluierung bieten sich weiterhin die Erstellung von Storyboards und Wire Frames an. (siehe dazu Blog “Gestaltung eines Denkwerkzeuges”) 

Mit dem User Interface Prototyping werden nun erste Dialogschritte mit möglichst einfachen Mitteln umgesetzt und die Anwendung wird greifbar und vorstellbar. Durch die erhöhte Realitätsnähe werden auch bisher unentdeckte Anforderungen sichtbar. Es bietet sich in unserem Rahmen das Prototyping mit Papier und Bleistift an (LoFi Prototyping). Die gemeinsame Arbeit ist unkompliziert machbar, einfache Skizzen sind schnell erstellt und angepasst und einen Papier-Prototypen zu zerknüllen und wegzuwerfen, fällt leicht. Prototypen lassen sich in allen Gestaltungsstadien gut von ausgewählten Benutzern z.B. mittels Usability-Tests und Walkthroughs überprüfen.

Unbenannt.6Unbenannt.7

Spezifikation

Wenn genügend Klarheit über die vorgesehene Lösung herrscht, wird das zu erstellende System für die Entwicklung spezifiziert. In unserem Falle könnte das bedeuten, dass wir unseren Prototypen immer weiter ausfeilen. Mit der schrittweise zunehmenden Komplexität geht es auch darum, Funktionalität und Ästhetik zu verbinden. Dazu gehört, das Design selbst mit den Farb- und Schriftentscheidungen, der Verteilung der Funktionseinheiten auf der Oberfläche etc. sowohl mit den spezifischen Anforderungen und dem Geschmack der Zielgruppe wie auch mit den eigenen Ansprüchen und Machbarkeiten abzustimmen.

Unbenannt.9

Realisierung

Für die Realisierung der Lösung muss die Spezifikation in ein technisches Design umgesetzt, eine Software-Architektur entworfen und implementiert werden. Da dieser Aufgabenbereich den Rahmen unseres Seminars und ggf. auch unsere Kompetenzen übersteigt, können wir ihn in seiner Konsequenz vernachlässigen.

Evaluation 

Während des gesamten Prozesses werden die jeweils erstellten Resultate immer wieder mit Benutzern überprüft und optimiert. Im Seminar sind zwei Termine dafür vorgesehen, wobei der letztere bereits das dann aktuelle Abschlussmodell evaluiert. Die Teams sollten dazu vorher jeweils klare Kriterien aufstellen und sich ebenfalls überlegen, mit welchen Methoden sie diese mit den anderen Teilnehmern testen wollen.

Dokumentation des Gestaltungsprozesses

Um Schritte nachvollziehbar und wiederholbar zu machen, sollten die Entwurfsmuster und Skizzen gesammelt werden. Bei der Präsentation der Team-Ergebnisse lassen sie die anderen Teilnehmer am bis dahin geleisteten Weg teilnehmen. Das regt zur Diskussion an steigert den Lerneffekt.

Was ist bei der Planung zu beachten?

Wenn sich die Teams für ihre weitere Planung zusammenfinden, ist der nächste wichtige Schritt, die eigenen Ziele klar, präzise sowie messbar zu formulieren. Des Weiteren sollten durchaus mögliche Risiken bei einer Werkzeug-Entwicklung beachtet werden. So gefährden Projektrisiken den erfolgreichen Abschluss eines Projekts. Typische Projektrisiken sind z.B. schlechte Akzeptanz bei den Benutzern sowie zu viele, erst spät entdeckte Anforderungen. Produktrisiken hingegen gefährden den erfolgreichen Einsatz eines Produktes. So könnte schlechte Usability in einigen Anwendungen schwerwiegendere Folgen haben als in anderen. Die Identifikation solcher Produktrisiken ist für die Einplanung von Usability-Methoden im Projekt zentral. Mit „dem Ohr am Benutzer“ und seiner aktiven Einbeziehung können derartige Risiken identifiziert bzw. kontrolliert werden.

Die Ziele, mögliche Risiken und unsere Rahmenbedingungen bilden die Grundlage für unsere Planung und bestimmen den Methodeneinsatz. Welches sind die für uns am besten geeigneten Usability-Methoden? Zu welchem Zeitpunkt setzen wir sie ein? Mit wie viel (zeitlichem) Aufwand muss gerechnet werden und welche Fähigkeiten bzw. Kompetenzen brauchen wir dazu? Über welche Kompetenzen verfügen wir im Team? Das führt im Folgenden zur konkreten Planung und Aufgabenverteilung unter Berücksichtigung des vorgegebenen Zeitplans. Dafür sollte die gemeinsame Kommunikation geklärt und auch ein nächstes Treffen für den Beginn der Arbeiten ausgemacht werden. Zur gedanklichen Unterstützung ihrer Teamplanung erhalten die Seminarteilnehmer ein Handout, auf dem die im Seminar besprochenen Usability-Methoden und die relevanten Aufgabenbereiche noch einmal erinnert sind.

Unbenannt.8

Das wahre Geheimnis der Welt ist das Sichtbare, 
nicht das Unsichtbare.

Oscar Wilde

 

LITERATUR

 

Koordination

1 Definition & Kontext

Teufel, Dauter, Muelherr, und Bauknecht (1995, S. 12) definiert Koordination als „[…] jene Kommunikation, welche zur Abstimmung aufgabenbezogener Tätigkeiten, die im Rahmen von Gruppenarbeit ausgeführt werden, notwendig ist“. Malone und Crowston (1994, S. 90) definieren im Rahmen ihrer Coordination Theory kurz und prägnant: „Coordination is managing dependencies between activities“. Besonders im Hinblick auf die erst genannte Definition wird deutlich, dass die im Folgenden betrachtete Art an Koordination abzugrenzen ist von Koordination, die eine einzelne Person umsetzt, um sich selbst zu koordinieren.

Das Grundkonzept der hier betrachteten Koordination ist (in Anlehnung an Gross & Koch, 2007; Malone & Crowston, 1994; Teufel, et al., 1995) folglich dadurch gekennzeichnet, dass:

  • eine Abhängigkeit zwischen Aktivitäten vorliegt und dass
  • grundsätzlich unabhängige bzw. semi-autonome Akteure,
  • durch das Mittel der Kommunikation,
  • ein Ziel verfolgen und sich dafür abstimmen müssen.

Die hier behandelte Koordination ist folglich im globalen Kontext der Computer-Supported-Cooperative Work (CSCW) zu sehen (vgl. Abbildung 1). Diese Wissenschaft betrachtet Gruppenarbeit im Allgemeinen und die computer-gestützten, technologischen Unterstützungsmöglichkeiten im „computer-based systems, that support groups of people engaged in a common task (or goal) and that provide an interface to a shared environment” (Ellis, et al., 1991, S. 40). Es wird deutlich, dass trotz Überlappungen, die Begriffe nicht exakt synonym sind, sondern Groupware auf technische Aspekte und Werkzeuge fokussiert (Gross & Koch, 2007). Im Weiteren gibt es verschieden Ansätze Groupware-Anwendungen weiter zu klassifizieren. Hinsichtlich der Funktion der Interaktionsunterstützung wird von Teufel, et al. (1995) im Rahmen des 3-K-Modells unterschieden, ob Groupware-Systeme primär Kommunikation, Koordination oder Kooperation unterstützen. In anderen Worten ausgedrückt, ob primär der Informationsaustausch und die Verständigung zwischen Akteuren (Kommunikation), die Abstimmung aufgaben-bezogener Tätigkeiten (Koordination) oder die Arbeit in Richtung eines gemeinsamen Zieles und an gemeinsamen Artefakten (Kooperation) befördert wird. Kommunikation und Koordination stellen in diesem Sinne die Grundlagen für die Kooperation dar, wobei eine erfolgreiche Koordination den zuverlässigen und effizienten Ablauf von Kooperation sichert (Gross & Koch, 2007).

Groupware

Abbildung 1: Einordnung in den Kontext

2 Abhängigkeiten

Im Rahmen der Koordinationstheorie unterscheiden Malone und Crowston (1994) sowie Gross und Koch (2007) unter anderen die in Tabelle 1 genannten zielrelevanten Zusammenhänge bzw. Abhängigkeiten zwischen Aktivitäten. Aus den jeweiligen Abhängigkeiten ergeben sich Koordinationsprobleme (in Tabelle rot hervorgehoben), wie zum Beispiel die Allokation von Ressourcen. Um diese Koordinationsprobleme zu lösen, muss zusätzliche Arbeit in Form von Koordinationsmaßnahmen bzw. Mechanismen geleistet werden.

Abhängigkeiten (Auswahl), daraus resultierende Koordinationsprobleme und mögliche Koordinationsmechanismen zur Problemlösung

Tabelle 1: Abhängigkeiten (Auswahl), daraus resultierende Koordinationsprobleme und mögliche Koordinationsmechanismen zur Problemlösung (in Anlehnung an Gross & Koch, 2007; Malone & Crowston, 1994)

Zu beachten ist dabei, dass die dargestellten Abhängigkeiten keine abschließende Auflistung darstellen. Außerdem gibt es bei den Koordinationsmechanismen und noch verstärkt bei den im Folgenden dargestellten Koordinations-Werkzeugen Überschneidungen hinsichtlich der adressierten Abhängigkeiten (z. B. Gleichzeitigkeit und Zugriff auf gemeinsame Ressourcen bei Dropbox oder Erzeuger/Verbraucher Abhängigkeiten und Aufgaben/ Teilaufgaben im Projektmanagement) (Malone & Crowston, 1994).

3 Koordinationswerkzeuge

Es gibt zahlreiche Koordinationswerkzeuge, welche die Handhabung von Abhängigkeiten zwischen Aktivitäten erleichtern. Insbesondere dann, wenn eine zeitliche und räumliche Verteilung der beteiligten Akteure vorliegt, gewinnen diese Koordinationswerkzeuge an Bedeutung (Schwabe, 2001). Aber auch über eine räumliche und zeitliche Trennung hinaus, können Akteure unterschiedlichen Umständen unterliegen oder von unterschiedlichen Strategien geleitet werden, welche Koordination notwendig machen (Gross & Koch, 2007).

Im Folgenden werden drei Grundklassen von Koordinationssystemen beschrieben und Werkzeug-Beispiele zur Koordinationsunterstützung vorgestellt. Die Werkzeuge wurden dabei der Klasse zugeordnet, deren Koordinationsprozess sie explizit adressieren. Wie bereits im Abschnitt „Abhängigkeiten“ erwähnt können jedoch Überlappungen auftreten (Malone & Crowston, 1994). Grundsätzlich ist zu beachten, dass die Beschreibungen und Bewertungen der Werkzeuge entweder auf persönlichen Erfahrungen mit den Werkzeugen oder den Beschreibungen und Erfahrungen der angegebenen Quellen basieren und nicht den Anforderungen an eine systematische Usability Evaluation genügen.

3.1 Klasse 1: Koordination des Zugriffs auf gemeinsame Ressourcen

Beim gemeinsamen Arbeiten muss häufig der Zugriff auf gemeinsame Ressourcen (z. B. Räume, Speicherplatz etc.) koordiniert werden. Hierbei können gemeinsame Artefakte helfen. Gemeinsame Artefakte sind Anwendungen, die für verschiedene Benutzer Anzeigen bereitstellen und auch durch verschiedene Benutzer veränderbar sind. Ein Beispiel für ein physisches gemeinsames Artefakt ist ein gemeinsam genutztes Whiteboard. Beispiele für elektronische, gemeinsame Artefakt sind die Seite eines Wikis, ein Blog oder ein gemeinsam genutzter elektronischer Kalender. Wichtig für die Koordinationsunterstützung ist hierbei besonders, dass die Artefakte die Awareness bei den Benutzern fördern in dem der Status und Änderungen abgebildet werden (Gross & Koch, 2007).

Gemeinsame Kalendersysteme am Beispiel von Google Kalender  GoogleKalender

Gemeinsame Kalendersysteme sind bereits seit Ende der 1970er Jahre verfügbar und gehören somit zu den ersten Groupware-Anwendungen. Bei einem gemeinsamen Kalendersystem führen Teammitglieder ihren Kalender online und gewähren anderen Nutzern Zugriffs- oder auch Schreibrechte. Je mehr Rechte vergeben werden und je mehr Informationen veröffentlicht werden umso höher ist die Transparenz. Da dies nicht immer gewünscht ist, können hier Einschränkungen vorgenommen werden, indem z. B. nur angezeigt wird, dass ein Termin angelegt ist, aber nicht der Termininhalt.

Unterschiedliche Kalender können zudem beispielsweise (automatisch) auf gemeinsame freie Zeiten für Meetings verglichen werden. Ressourcen wie Räume können zugeordnet werden und Termineinladungen (automatisch oder nach Bestätigung) verschickt und (automatisch oder nach Bestätigung) eingetragen werden. Gemeinsame Kalendersysteme liefern somit eine Awareness- und eine Kommunikationsunterstützung. Zudem können die Kalender zentral als auch lokal verwendet und eingebunden werden (Gross & Koch, 2007; Schwabe, 2001).

Ein populäres Beispiel-Werkzeug stellt Google Kalender dar (vgl. Abbildung 2). Google Kalender erfordert eine Registrierung und ist kostenlos. Es können ganze Kalender freigegeben werden oder Einladungen zu Terminen versendet werden. Der Termin wird dabei automatisch im Kalender des Eingeladenen vorgemerkt und bei Bestätigung eingetragen. An anstehende Termine kann man sich erinnern lassen und Termine werden auf allen registrierten Geräten automatisch synchronisiert. Als weitere Verknüpfung werden Termine, die sich in GMail-E-Mails befinden ebenfalls direkt in den Kalender eingetragen (Google Kalender, 2015).

Das Terminfindungswerkzeug Doodle Doodle_logo

Für Personen die keinen gemeinsamen Kalender nutzen, sich aber dennoch terminlich koordinieren möchten, stellen Umfragen mit Doodle eine alternative Möglichkeit, bzw. eine Ergänzung zu Google Kalender dar. (vlg. Abbildung 3).

Doodle

Abbildung 3: Beispiel einer Doodle-Umfrage

Doodle-Umfragen können auch ohne Registrierung erstellt und beantwortet werden. Viele Funktionen sind kostenfrei enthalten. Für Premiumfunktionen und weitere Gestaltungsmöglichkeiten kann kostenpflichtig „Premium Doodle“ abonniert werden (29 €/Jahr für Einzelpersonen und ab 49 €/Jahr für Unternehmen). Die Auswahl eines endgültigen Termins wird von Doodle durch Hervorhebung des Termins, der für die meisten Teilnehmer passend ist, unterstützt. Es gibt eine App-Version und auch eine Verknüpfung mit Google Kalender ist möglich (Doodle, 2015). Als Nachteil kann angesehen werden, dass Umfragen grundsätzlich einsehbar sind, sofern die URL der Umfrage bekannt ist. Ein Auffinden einer einzelnen Umfrage ist allerdings aufgrund der zufällig generierten Adressen unwahrscheinlich. Aus meiner Sicht erfordert Doodle praktisch keine Einarbeitungsleistung, sondern kann sofort genutzt werden und ist somit trotz eingeschränktem Funktionsumfang ein nützliches Tool.

Dropbox dropbox_logo

Dropbox ist ein weit verbreiteter Cloud-Speicherdienst. Nach Angaben von Dropbox (2015) nutzen weltweit 400 Millionen Menschen diesen Dienst und das Dropbox-Prinzip dürfte zum allgemeinen Erfolg von Cloud Speicherdiensten beigetragen haben. Installiert man sich die Software, so wird ein lokales, virtuelles Laufwerk angelegt, welches mit dem Online Datenspeicher und allen registrierten Geräten synchronisiert wird. Insofern erfolgt ein automatisches Online-Backup. Online oder aus dem lokalen, virtuellen Laufwerk heraus lassen sich Dateien oder gesamte Ordner über einen Link leicht verteilen und herunterladen oder zum gemeinsamen Bearbeiten freigegeben. Wurde ein Ordner freigegeben, kann dieser durch den Eingeladenen in den eigenen Dropbox-Speicher (zu Lasten der verfügbaren Speicherkapazität) nach Zustimmung integriert werden (Radke, Scherschel, & Bleich, 2014).

Dropbox stellt in der Regel zwei Gigabyte Speicherkapazität kostenfrei zur Verfügung. Für zusätzliche Speicherkapazität muss bezahlt werde. Außerdem werden erfolgreiche Weiterempfehlungen mit zusätzlichem Speicher belohnt. Bezüglich der Datensicherheit bietet Dropbox zwar eine Zwei-Faktor-Authentifizierung, jedoch keine Ende-zu-Ende-Verschlüsselung. Die Bedienung ist nach meiner Erfahrung, als auch nach Bewertung von Radke, et al. (2014) gut. Insbesondere unter Berücksichtigung der Anzahl an angebotenen Funktionen.

Dropbox mit geöffnetem Kontextmenü

Abbildung 4: Dropbox mit geöffnetem Kontextmenü

3.2 Klasse 2: Aufgabensequentialisierung und Projektmanagement

Von besonderer Bedeutung für die Sequentialisierung von Aufgaben sind sogenannte Workflow Management Systeme.

Definition von Workflow Management Systemen

Ein Workflow bildet unter anderem ab, wie Aufgaben strukturiert sind, wer für eine Aufgabe zuständig ist und welche Aufgaben aufeinander aufbauen. Ein Workflow kann sowohl eine große Anzahl an Akteuren als auch viele Softwaresysteme einschließen. Nach Borghoff und Schlichter (2000, S. 332 zitiert nach Gross & Koch, 2007) umfasst das Workflow Management „all the functions of modelling, specifying, simulating, analysing, executing and monitoring a workflow“. Systeme, die diese Management Anforderungen unterstützten, werden folglich als Workflow Management Systeme bezeichnet. Diese Unterstützungsleistung erweist sich häufig auch im Rahmen von Projektmanagement als sehr hilfreich (Gross & Koch, 2007).

Im Folgenden werden als Werkzeug-Beispiele für Projektmanagementunterstützung Trello und Project PlacePro vorgestellt. Beide Werkzeuge zeichnen sich meiner Meinung nach durch eine intuitive Bedienung aus. Trello eignet sich aus meiner Sicht bereits für weniger komplexe Koordinationsanforderungen im Studium oder im Privaten, da die Einarbeitungszeit als gering einzuschätzen ist. Project PlacePro bietet mehr Funktionen und eignet sich für größere Vorhaben mit erhöhten Koordinationsanfordernissen. Am Ende des Kontinuums der Komplexität und Unterstützungsleistung (inkl. ausgeprägter Prüfmechanismen und ausgeprägtem Ressourcenmanagement) aber auch der Popularität, ist wohl Microsoft Project (aktuelle Version: MS Project 2013) zu verorten. Da sich Microsoft Project eher an Anwender mit Schwerpunkt im Projektmanagement richtet und Vorkenntnisse für ein umfassendes Verständnis der Funktionen hilfreich sind, wird hier auf die Vorstellung von Microsoft Project zu Gunsten von Trello und Project PlacePro verzichtet.

Trello Trello_Logo

Trello ist eine web-basierte Projektmanagement Software (Trello Inc., 2015). Der Nutzer legt für ein Projekt zunächst ein sogenanntes Trello-Board an, auf welchem er verschiedene Listen ergänzt. Die Listen werden dann mit Karten gefüllt, welche klassischerweise Aufgaben entsprechen (vgl. Abbildung 5). Diese Aufgaben können dann gemeinsam in einem Team bearbeitet werden, indem Teammitglieder zu diesem Projekt eingeladen und Aufgaben zugeordnet bzw. ausgewählt werden. Neben der Zuordnung von Akteuren zu Karten bzw. Aufgaben, können die einzelnen Karten, wie auch die Listen und das gesamte Projekt an die eigenen Bedürfnisse angepasst werden, indem beispielsweise Benennungen, Fälligkeiten, Dateien, Bilder, Labels und vieles mehr bestimmt werden (vlg. Abbildung 6). Die Benutzung ist dabei meiner Meinung nach intuitiv gestalten. Ein Klick auf Dinge die man anpassen möchte genügt, damit sich das entsprechende Menü öffnet. Sortierungen sind durch einfaches verschieben der Listen oder Karten möglich.

Trello Willkommens-Board

Abbildung 5: Das Trello Willkommens-Board (Bildquelle: https://trello.com/b/2HV9rGxQ/willkommens-board, 19.12.2015)

Neben der intuitiven Bedienbarkeit von Trello ist aus meiner Sicht positiv zu verzeichnen:

  • es gibt eine kostenlose Grundversion,
  • die Board-, Listen-, und Kartengestaltung ist sehr flexibel,
  • es können Boards von anderen Nutzern kopiert und genutzt werden, falls diese freigegeben wurden[1],
  • es kann zusammengearbeitet werden und die Synchronisation erfolgt in Echtzeit,
  • es gibt eine App und
  • die Kompatibilität mit anderen Anwendungen wie beispielsweise dem Google Kalender[2].

Kritisch könnte sich hingegen die Übersichtlichkeit bei großen Projekten gestalten. Auch eine detaillierter Verlaufsabbildung, wie beispielsweise bei einem Gantt-Chart realisiert, vermisse ich. Erhöhte Sicherheitsleitungen, wie Dateiverschlüsselungen bei Leerlauf, gibt es zudem auch erst gegen Gebühr (Trello Inc., 2015).

Trello Karte bearbeiten

Abbildung 6: Anpassen einer Trello-Karte durch Anklicken (Bildquelle: https://trello.com/c/YvQ1GVDO/9-zur-organisation-farblich-gekennzeichnete-labels-verwenden, 19.12.2015)

Projectplace Pro Projectplace_by_Planview_logo

Ein weiteres Beispiel für die Projektplanung stellt Projectplace Pro dar. Projectplace Pro verzeichnet aktuell (Stand 07.12.2015) 1.117.617 registrierte Anwender in 180.863 Projekten. Unter den Kunden finden sich nach Angaben der Projectplace GmbH (2015) auch Firmen wie DHL, Daimler, Vattenfalll und Sony.

Ein wesentliches Element von Projectplace Pro ist ein Kaban-Board (vgl. Abbildung 7), wie auch bei Trello. Auch hier werden Arbeitsschritte auf Karten abgebildet und Akteure können sich entweder selbst, entsprechend der ProjectPlace-Philosophie, als zuständig zuordnen (was deren Motivation fördern soll) oder werden vom Projektleiter zugeordnet (Schüler, 2015). Durch das Verschieben der Karten entsprechend des Status der Aufgabe und durch das Eintragen des Aufgabenfortschritts auf einer Punkteskala, wird für alle Teammitglieder die Awareness gefördert und der Projektfortschritt sichtbar. Dies soll zur Entlastung des Projektleiters beitragen. Auch hier sind, wie bei Trello, Kommentare und Kommunikation direkt bei den Arbeitsschritten möglich und Dateien können direkt an die entsprechenden Karten angehängt werden. Bei den Karten lassen sich zudem Größen wie der Arbeitsaufwand ergänzen (Projectplace GmbH, 2015).

Projectplace Pro Kanan-Board

Abbildung 7: Kanban-Board bei Projectplace Pro (Bildquelle: https://www.projectplace.de/funktionen/digitale-kanban-boards/, 07.12.2015)

Auf dem Kanban-Board ist somit die tägliche Arbeit abgebildet. Um den zeitlichen Überblick über das Gesamtprojekt zu optimieren und das Projekt zu strukturieren, sind die Karten zudem mit dem Gantt-Diagramm verknüpft (vgl. Abbildung 8). Diese klassische Darstellungsweise ist bereits von MSProject bekannt. Das Gantt-Diagramm enthält auch Meilensteine, Zwischenziele, eine Timeline, und Start- und Enddaten. Im Gantt-Diagramm werden Aufgaben in Form von Balken mit entsprechender Länger (entsprechend der Bearbeitungsdauer) und Abhängigkeiten zwischen Aufgaben mit entsprechenden Verknüpfungslinien abgebildet. Somit ist auch die Hierarchie ersichtlich, also welche Teilaufgaben zu welcher übergeordneten Aufgabe beitragen. Die unterste Hierarchieebene lässt sich dann auf die Kanban-Boards pinnen und der hier eingetragene Fortschritt wird wiederum im Gantt-Diagramm abgebildet und falls Verzögerungen auftreten auch automatisch angepasst (Projectplace GmbH, 2015; Schüler, 2015).

Besonders die Verknüpfung zwischen Kanban-Board und Gantt-Diagramm scheint ein innovatives Feature mit Mehrwert zu sein. Weiterhin positiv bewerte ich:

  • Verfügbarkeit einer kostenlosen Version (1 Projekt, max. 2 Kanban-Boards)
  • Übersichtlichkeit durch Reitermenü und unterschiedliche Darstellungsmöglichkeiten wie Kanban-Boards und Gantt-Diagramm,
  • Flexibilität und
  • modernes Design.

Nachteilig erscheint (Schüler, 2015):

  • das Bestimmen von Abhängigkeiten sei nicht intuitiv,
  • es gebe keine internen Prüfmechanismen (z. B. könne Teilaufgaben eine Fälligkeit nach der Fälligkeit der übergeordneten Aufgabe zugewiesen werden) und
  • die Planungshilfen für größere Vorhaben seien unvollständig.

Die Seminarteilnehmer merkten außerdem kritisch, dass die transparente Darstellung der Verantwortlichkeiten zu erhöhtem Druck und Kontrolle bei den Mitarbeitern führen könne.

Nach einer Testphase von zwei Wochen kann man sich neben der kostenlosen Version (Plan genannt) auch für den Plan Basic ($ 39 /Monat), den Plan Pro ($ 49 /Monat) und den Plan Enterprise (Preise nach Absprache) entscheiden.

Gantt-Diagramm in Projectplace Pro

Abbildung 8: Gantt-Diagramm in Projectplace Pro (Bildquelle: https://www.projectplace.de/funktionen/gantt-neu-definiert/, 07.12.2015)

3.3 Klasse 3: Synchronisation von Aktivitäten

Arbeiten mehrere Personen an einem Projekt bzw. einer Aktivität ist es notwendig, die vollzogenen Änderungen abzubilden, zu synchronisieren und ein letztlich ein zeitgleiches Arbeiten zu unterstützen. Als Beispiel Werkzeuge werden im Folgenden Git und GitHub vorgestellt.

Git git-logo

Git wurde 2005 von Linus Torvalds für die Arbeit am Linux-Kernel entwickelt. Ziel war es „eine Versionsverwaltung, die mit einer riesigen Menge Code und sehr vielen Mitarbeitern umgehen konnte“ zu entwickeln (Braun, 2014).

Git ist ein sogenanntes Versionskontrollsystem (Version Control System, VCS) und unterstützt sowohl die Archivierung von Inhalten als auch Teamwork. Dafür protokolliert Git das eigene Arbeiten in Form von Backups vorangegangener Versionen, die einfach wiederhergestellt werden können. Git funktioniert dabei verteilt, das heißt, dass sich Entwickler beispielsweise zunächst von einem Server eine lokale Kopie eines Repository (Datenbank inkl. Code und Versionsarchiv) speichern. An dieser „geklonten“ Version wird dann gearbeitet und vollzogene Änderungen wieder in das gehostete Archiv eingepflegt oder, sollte man dieses Recht nicht haben, an Personen mit entsprechenden Rechten eingereicht. Nach diesem System hat jeder Nutzer ein vollständiges Backup und kann an diesem unabhängig von anderen Nutzern arbeiten. Änderungen werden in Form von Commits protokolliert. Ein Commit ist dabei eine neue Version des Projektes im Repository. Diese „Einpflegungen“ ins Repository werden bestenfalls stufenweise (sogenanntes stagen) vorgenommen, damit auch zu einem späteren Zeitpunkt ersichtlich ist, welche Änderung (z. B. Korrektur von Rechtschreibfehlern, Ergänzung von Code etc.) vorgenommen wurde. Möchte man an einer alten und einer neuen Version parallel arbeiten bietet es sich an einen sogenannten branch, also eine Abzweigung bzw. einen Nebenpfad, anzulegen, der vom normalen Pfad, dem master abzweigt. Branches können dann wieder mit dem master gemergt also zusammengeführt werden. Im Detail bietet Git noch weitere Funktionen für eine erfolgreiche Versionierung.

Arbeiten mit Git

Abbildung 9: Arbeiten mit Git (Bildquelle: https://www.flickr.com/photos/malcolmtredinnick/1516857444, 23.12.2015)

Git muss unter Windows und Mac OS X zunächst heruntergeladen und installiert werden. Unter Linux erfolgt die Installation über den Paketmanager. Git kann dann einfach auf einem Rechner genutzt werden und benötigt grundsätzlich keinen Server. Bei mehreren Beteiligten, laufen Projekte, wie oben beschrieben, jedoch über einen ständig erreichbaren Server. Die Nutzung von Git erfordert etwas Einarbeitung, die sich nach Meinung von Braun (2014) jedoch für alle lohnt „deren Schöpfungen sich als Dateien manifestieren“. Als Unterstützung kann auch ein Client mit grafischer Oberfläche genutzt werden.

Übersicht zu Git Operationen

Abbildung 10: Übersicht zu Git Operationen (Bildquelle: https://commons.wikimedia.org/wiki/File:Git_operations.svg, 23.12.2015)

GitHub GitHub-Logo

Laut Braun (2014) ist GitHub die führende Open-Source-Plattform und wird mit Git genutzt. GitHub bietet dabei öffentlichen Zugriff auf den Code vieler verschiedener Projekte (z. B. Linux-Kernel). Möchte man an einem Projekt mitarbeiten, meldet man sich bei GitHub an und forked sich das gewünschte Projekt, was bedeutet, dass man sich eine private Version des Projekts klont. Der Code kann nun über Git auf den eigenen Computer kopiert und bearbeitet werden. Die vollzogenen Änderungen können anschließend zur Übernahme auf GitHub vorgeschlagen werden. Neben der Entwicklung wird durch GitHub auch die Kommunikation gefördert. So können zum Beispiel Fehler gemeldet werden oder Diskussionen stattfinden. Es bietet außerdem den Vorteil, dass sich jeder Interessierte an einem Projekt beteiligen kann. Über eine einfache Möglichkeit zur Meldung von Fehlern oder Verbesserungsvorschläge sind hierzu auch keine Programmier- und Git-Kenntnisse notwendig. Für Entwickler bietet es außerdem den Vorteil, dass kein eigener Git-Server betrieben werden muss.

GitHub wird zunehmend auch von Wissenschaftlern eingesetzt, die dort ein Forschungsprojekt öffentlich dokumentieren oder mit anderen Forschern gemeinsam an einem Projekt arbeiten. Die Versionskontrolle von Git bietet dabei eine einfach Möglichkeit, Veränderungen zu dokumentieren und notfalls Rückgängig machen zu können. Durch die öffentliche Verfügbarkeit von Daten und Analysen wird eine einfache Replizierbarkeit gewährleistet. Beispiele für eine wissenschaftliche Nutzung von GitHib findet sich zum Beispiel bei Boettiger (2015), einem Politikwissenschaftler der UC Berkeley. McDonnell (2012)gibt eine ausführliche Übersicht über die Nutzung von GitHub in der Wissenschaft.

4 Zusammenfassung

Es wurde gezeigt, dass Koordination dann nötig wird, wenn eine Abhängigkeit zwischen Aktivitäten vorliegt. Hierbei lassen sich verschiedene Abhängigkeiten unterscheiden. Es gibt unzählige Werk-zeuge zur Unterstützung von Koordination, die unterschiedliche Abhängigkeiten und Komplexitäten adressieren. Einige Beispiel-Werkzeuge wurden kurz vorgestellt und ihre Hauptfunktionen beschrieben. Grundsätzlich zeichnen sich die Werkzeuge durch eine hohe Flexibilität in ihrer Benutzung aus und die Unterstützung von Kooperation scheint als Selbstverständlichkeit Berücksichtigung zu finden. In diesem Sinne sei nochmals darauf verwiesen, dass bei der Auswahl eines Werkzeuges, neben der Funktionalität und Gebrauchstauglichkeit auch auf die Einbettung und die Akzeptanz in das soziale System zu achten ist. Hierzu ist es sinnvoll sich über klare Regeln der Nutzung zu einigen und auf deren Einhaltung zu achten (Gross & Koch, 2007).

Literaturverzeichnis

Boettiger, C. (2015). GitHub. Retrieved 22.12.2015, von https://github.com/cboettig

Braun, H. (2014). Unvergessen – Erste Schritte mit dem Versionskontrollsystem Git und mit GitHub. c’t, 5, 176-181.

Doodle. (2015). Doodle vereinfacht die Terminfindung. Retrieved 20.12.2015, von http://doodle.com/de/

Dropbox. (2015). Dropbox. Retrieved 06.12.2015, von https://www.dropbox.com

Ellis, C. A., Gibbs, S. J., & Rein, G. (1991). Groupware: some issues and experiences. Commun. ACM, 34(1), 39-58. doi: 10.1145/99977.99987

Google Kalender. (2015). Willkommen bei Google Kalender. Retrieved 20.12.2015, von https://support.google.com/calendar/answer/2465776?hl=de

Gross, T., & Koch, M. (2007). Computer-supported cooperative work: Oldenbourg.

Malone, T. W., & Crowston, K. (1994). The interdisciplinary study of coordination. ACM Computing Surveys (CSUR), 26(1), 87-119.

McDonnell, J. (2012). Git for Scientists: A Tutorial. Retrieved 22.12.2015, von http://nyuccl.org/pages/gittutorial/

Projectplace GmbH. (2015). projectplace by planview. Retrieved 07.12.2015, von https://www.projectplace.de/

Radke, J., Scherschel, F. A., & Bleich, H. (2014). Hoch verfügbar – Zehn Cloud-Datenspeicher im Test. c’t, 16, 72-77.

Schüler, P. (2015). Zusammen, was zusammen gehört – ProjectPlace Pro vereint agiles und klassisches Projektmanagement. c’t, 26, 75.

Schwabe, G. (2001). Koordinationswerkzeuge. In G. Schwabe, N. Streitz & R. Unland (Hrsg.), CSCW-Kompendium (S. 174-179). Berlin Heidelberg: Springer.

Teufel, S., Dauter, C., Muelherr, T., & Bauknecht, K. (1995). Computerunterstützung für die Gruppenarbeit. Bonn: Addison-Wesley.

Trello Inc. (2015). Trello. Retrieved 07.12.2015, von https://trello.com


 

[1] Zum Beispiel das Board „Research Iteration“ https://trello.com/b/8t9qgmNz/research-iteration, 19.12.2015.

[2] Für die Einbindung in z. B. Endnote, Dropbox, Github etc., ist ein Business Class Account für $ 8.33 pro Benutzer und Monat erforderlich (https://trello.com/pricing).

Virtuelle Kooperation: Wieso, weshalb, warum?

Der Transfer von einer im realen Raum stattfindenden Kooperation virtuell zu gestalten, ist ein schweres Unterfangen! 

Warum ist Kooperation eigentlich wichtig und wieso sollte in Erwägung gezogen werden diesen Prozess online zu gestalten (mehr dazu unter 1. Einleitung)? Was  sollte in einem virtuellen Kontext gegenüber einem realen Kooperationsraum alles beachtet werden (mehr dazu unter 2.Betrachtungsweisen) und gibt es bereits Praxisbeispiele zur Orientierung (mehr dazu unter 3.Praxisbeispiele)? 

Diese und weitere Fragen werden in diesem Artikel beantwortet. Weiterführende Links, aber auch hilfreiche Artikel in diesem Blog (vor allem zur Koordination und Kommunikation) helfen die Komplexität dieses Themas zu verstehen und vermitteln einen ersten Einstieg in das spannende Gebiet der virtuellen Kooperation.


1. Einleitung

Kooperation ist neben Kommunikation und Koordination ein wichtiges Konzept in der zwischenmenschlichen Verständigung. Kooperation, also die Zusammenarbeit zwischen zwei oder mehreren Individuen, hat es dem Menschen ermöglicht, seine moderne Welt zu bedingen, da er durch Kooperation befähigt wurde, zweckgerichtete Ziele zu erreichen. Eine drastische Veranschaulichung von Abwesenheit von Kooperation und Kommunikation bieten Wolfskinder, die über Jahre hinweg keine Möglichkeit zur Interaktion mit Mitmenschen hatten, sodass die Vermittlung kulturspezifischer Verhaltensweisen und Normen ausblieb bis hin zu einer drastisch hohen Mortalitätsrate unter diesen Kindern. Der Mensch als soziales Wesen ist also auf Kommunikation, Koordination und Kooperation angewiesen. 

Hände reichen

Bild 1: Menschen kooperieren zusammen und reichen sich die Hand. 

Unsere immer globaler, komplexer und vernetzter werdende Welt erfordert die Realisierung von virtuellen Kooperationsräumen, um den Ansprüchen und Anforderungen von diesen modernen Gegebenheiten gerecht zu werden. Diese Verlagerung bzw. Erweiterung von Kooperationsmöglichkeiten ist ein notwendiger Schritt in die Zukunft! Unternehmen mit Standorten auf verschiedenen Kontinenten sind gefordert, optimierte Denkwerkzeuge einzusetzen, um Prozesse der Entwicklung und Abstimmung zu erleichtern. Virtuelle Kooperationsräume sind hier das Mittel der Wahl. Schließlich wäre eine reale Teambesprechung ein enormer Kosten- und Zeitaufwand. Die Effektivität zeigt sich auch an Universitäten, zum Beispiel zur Organisation von Lernprozessen oder bei der Informationszusammentragung. Selbst Behörden profitieren durch die einfachere online Vernetzung und schaffen zusammen kooperierend eine schnellere Datenverarbeitung.


2. Betrachtungsweisen 

Virtuelle Begegnungen jeglicher Art werden unter anderem von individuellen Bedürfnissen, gruppendynamischen, psychologischen und technischen Faktoren beeinflusst. Zunächst stellt sich die Frage bei der Erstellung einer Plattform zur Kooperation nach grundlegenden Bedürfnissen der Kooperationspartner. Im weiteren wird der Frage nach dem richtigen Kommunikationsmittel zur Kooperation nachgegangen, wichtige pädagogische Tipps zur Gestaltung eines kohärenten Teams gegeben und Möglichkeiten aufgezeigt, eine möglichst realistische Begegnung online durch Awareness zu schaffen. Zum Abschluss sollen dann individuelle Faktoren berücksichtigt werden, die den Prozess hindern könnten. 

2.1. Virtuell kooperieren: Grundlegende Fragen

Institutionen, Unternehmen, Universitäten oder Behörden teilen sicherlich den Wunsch zwischen ihren Mitarbeitern bzw. Studierenden eine effektive Kooperation zu gestalten. Aber alle bringen offensichtlich verschiedene Faktoren mit, weshalb die Beantwortung grundlegender Fragen die Basis eines jeden virtuellen Kooperationsraumes bildet. Die Skizzierung erfolgt anhand folgender Faktoren: 

  1. Symmetrie: Der Wissensstand der teilhabenden Personen ist enorm wichtig, da ein starkes Wissensgefälle, wie es zum Beispiel bei Dozenten und Studierenden der Fall sein könnte. Im Gegensatz zu einem homogenen Wissensniveau wie zum Beispiel in Behörden erfordert andere Maßnahmen. 
  2. Ziel: Die Bedürfnisse einer Gruppe und vor allem der Output in Form des Ziels der Kooperation sollten klar definiert sein. An einer Universität wäre es denkbar, Informationen zusammenzutragen, anzuwenden und zu vertiefen, um neue Kompetenzen entwickeln zu können. Ein Unternehmen könnte hingegen nur an einem Sammelort für Informationen interessiert sein. 
  3. Direktivität: Der im Kooperationsraum entstehende Prozess sollte von Personen (oder Programmen) begleitet und betreut werden. Die Frage nach der Verantwortung könnte also durch eine sich selbst organisierende Einheit (z.B. durch gleichberechtigte Studenten) beantwortet werden oder durch Anleitung eines Administrators erfolgen. 
  4. Dauer: Arbeiten die Gruppenmitglieder über mehrere Phasen zusammen, wie es in Unternehmen bei der Realisierung von Projekten denkbar wäre, oder spontan für kurze Zeit, wie es an der Universität bei der Gestaltung eines Seminars der Fall sein könnte? 
  5. Größe: Bei der Größe reicht das Spektrum von Lernpaaren bis hin zu Gemeinschaften mit beliebig vielen Mitgliedern. 

2.2. Psychologische Aspekte: Kommunikation 

Eine Unterhaltung zwischen Gesprächspartnern läuft in einem realen Raum so natürlich und facettenreich ab, dass es für eine erfolgreiche Übertragung in einem virtuellen Kontext ein Verständnis über gelungene und misslungene Kommunikation bedarf. Als Grundmodell menschlicher Kommunikation dient oft das Sender-Empfänger-Modell aus der mathematischen Theorie der Kommunikation von Shannon & Weaver (1949). 

Fortwährendes Feedback von den Gesprächspartnern ermöglicht es dabei gegenseitiges Verständnis aufzubauen und abzusichern. Dieser Rückkoppelungsprozess durch verbale wie nonverbale Hinweisreize dienen nicht nur dem Verständnis, sondern auch der Koordination. Clark und Brennan (1991) haben Gesichtspunkte vorgeschlagen zur Bewertung unterschiedlicher Medien hinsichtlich ihrer Rückkoppelung. Die Kategorisierung von Kommunikationsmedien kann hilfreich sein, um im computervermittelten Settings, den richtigen Kommunikationsweg für die entsprechenden Bedürfnisse zu finden. 

Hierbei spielt die Hörbarkeit und Sichtbarkeit der Kommunikationspartner eine Rolle. Außerdem gibt es Medien, die ein gleichzeitiges Agieren ermöglichen und wiederum andere, die eine sequentielle Kommunikation voraussetzen. Wichtige zu beachtende Punkte sind ebenfalls die Nachprüfbarkeit und Revidierbarkeit der Unterhaltung.

male-call-center-manager-female-agent-looking-at-computer

Bild 2: Zwei Mitarbeiter nutzen computergestützte Kommunikationsmedien zur Verständigung mit einem anderen Team.

Der Kategorisierung zufolge weisen sich sozial präsente Medien wie Face-to-Face Programme (z.B. Skype) mit Hörbarkeit und Sichtbarkeit aus. Sie kommen einem realen Gespräch am nächsten, da hier die Möglichkeit des Feedbacks besteht, aber es wird auch deutlich, dass die textbasierten Medien (z.B. E-Mail) mit Nachprüfbarkeit und Revidierbarkeit spezifische Qualitäten haben. Es ist denkbar, dass bei wichtigen Vorgängen die textbasierten Medien, durch ihre Überprüfbarkeit und Korrigierbarkeit unbedachte Äußerungen eher ausschließen können. 

2.3. Pädagogische Aspekte: Gruppendynamik 

Online zu kooperieren ist zweifelsohne eine spezielle Sozial- und Interaktionsform, die einer pädagogischen Betrachtung bedarf, um Effekte wie zum Beispiel das Social Loafing (Soziales Faulenzen) vorzubeugen. Bei einer selbstständigen Auseinandersetzung ist das Individuum alleine für den Erkenntnisgewinn verantwortlich. Anders in einem kooperativen Kontext, in dem wechselseitig an einer Sache gemeinsam gearbeitet wird. Hier gibt es Faktoren zu beachten, die von Johnson und Johnson (1990) postuliert wurden, um gemeinsame, aber auch unterschiedliche Ziele zu verwirklichen.

Die Interdependenz der Gruppenzusammenhänge sollte von allen an dem Projekt beteiligten Personen als positiv wahrgenommen werden und die Interaktion innerhalb der Gruppe sollte gefördert und unterstützt werden. Die Einstellung einen Sachverhalt alleine besser bearbeiten zu können, wäre eine erhebliche Einbuße in der Motivation der Mitarbeiter. 

In Gruppen kann es vorkommen, dass sich Einzelne zurücklehnen, da sie davon ausgehen, dass die Gruppe den Erfolg auch ohne sie erreicht (Social Loafing). Aus diesem Grunde sollten sowohl Individualverantwortung, also auch Gruppenverantwortung, sichtbar gemacht werden. Der individuelle Beitrag muss erkennbar sein und das Individuum muss sich dafür verantwortlich fühlen. Die Gruppe sollte weiterhin darüber aufgeklärt werden bzw. sich bewusst sein, dass auch der Gruppenoutput bewertet wird. Die Sicherstellung dieser Ziele erfolgt über ein regelmäßiges Feedback und der regelmäßigen Nutzung von spezifischen Kommunikation und Gruppenfähigkeiten und -fertigkeiten. 

Zusammengefasst definiert, sollte das Know-How einer Gruppe bestimmt werden, Gruppenmitglieder sich verantwortlich fühlen und Feedback erfolgen. 

2.4. Soziologische Aspekte: Awareness 

Die Herstellung eines Gruppenkontextes ist ein weiterer wichtiger Aspekt, um eine Individualverantwortung sicherzustellen, damit eine erfolgreiche Kooperation erfolgt. Die Mitarbeiter müssen sich sicher sein, dass ihre Kooperationspartner „da sind“ in einem gewissen Sinne. Darüber hinaus müssen Fragen nach den Tools und Ressourcen der einzelnen Mitarbeiter adressiert werden, es muss klar sein, welche Informationen Mitarbeiter kennen und ihre Ziele und Erwartungen müssen auch deutlich werden. 

  • Social Awareness: Teilnehmende Personen werden über Interessen, Präferenzen oder auch Vorkenntnisse von anderen informiert. Darüber hinaus besteht die Möglichkeit,  Stimmungen anzeigen zu lassen. Diese können allerdings nicht in jedem Kontext förderlich sein und sollten gut bedacht eingesetzt werden. 
  • Activity Awareness: Die Benutzer können voneinander sehen, an welchem Ort sie aktiv sind und woran sie arbeiten. Hiermit wird das Ziel verfolgt, andere Benutzer sichtbar zu machen und die Gruppe wird sich über ihr bestehen bewusst.
  • Task Awareness: Kenntnisse und Fähigkeiten eines Gruppenmitglieds sind bei der Aufgabenverteilung von großer Bedeutung, sodass der aktuelle Zustand der Aufgabenverteilung klar wird. 

2.5. Diversity

Diversity bezeichnet all jene menschlichen Identitäten und Charakteristika, die unterscheidend zu anderen Menschen stehen. Hierbei kann sich Diversity auf vielfältige Erscheinungsformen beziehen, wobei es nicht nur um die klassischen, weil sichtbaren Differenzmerkmale, wie Geschlecht, Alter oder ethnische Zugehörigkeit geht, sondern auch um nicht unmittelbar erkennbare Merkmale, wie religiöse Überzeugung, sexuelle Orientierung, kultureller Hintergrund, Betreuungsverpflichtungen, Arbeitsrollen und Arbeitsfunktionen oder Arbeitsstil. Globale Unternehmen, aber auch national agierende Unternehmen, sowie jede andere zusammen agierende Organisationseinheit muss sich ernsthaft mit diesem Konzept beschäftigen, um erfolgreich alle Potenziale der mitwirkenden Personen ausnutzen zu können. 

diversity

Bild 3: Diversität innerhalb einer Belegschaft sollte als Chance und Ressource verstanden werden. 

Altersdiskrimierung trifft Unternehmen im Zuge der Verwicklung eines virtuellen Kooperationsraumes besonders massiv, deshalb soll dieser Diversitätsform eine genauere Betrachtung erfahren. Die soziale und ökonomische Benachteiligung von Einzelpersonen oder Personengruppen aufgrund ihres Lebensalters ist fatal, da gerade die Personengruppe mit einer langen Unternehmenszugehörigkeit viel Expertise beim Bewältigen von Problemen hat. Es kann davon ausgegangen werden, dass bis zu 80% des Wissens im Unternehmen an die einzelnen Mitarbeiter gebunden ist. Der Zugang von älteren Arbeitnehmern zu den neu geschaffen Strukturen ist ein Gewinn für das ganze Unternehmen, weshalb hier ein großes Augenmerk  auf  gezielte Schulungen der betroffenen Personengruppe, sowie die Schaffung einer inklusiven Gemeinschaft gerichtet werden sollte. 

Es ist erwiesen, dass ältere Menschen genauso wie jüngere in der Lage sind, Technik und Software zu benutzen und dabei sollte der Faktor der längeren Einarbeitung der älteren Belegschaft mit eingeplant werden. 

Stephan Grabmeier, ein Unternehmensberater, der Unternehmen auf dem Weg zur digitalen Transformation begleitet, beschäftigt sich ebenfalls mit der Thematik der Altersdiskriminierung und erklärt sowohl auf seiner Homepage, als auch in einem Video weiterführend Chancen und Risiken von Diversität.


 

3. Ein Praxisbeispiel: Enterprise 2.0

Enterprise 2.0 bezeichnet eine soziale Software, welche in Unternehmen zum Einsatz kommt, um die Zusammenarbeit zu unterstützen. Das von McAffee entworfene Konzept ist noch relativ neu, findet aber starken Anklang bei vielen Unternehmen. In seinem Artikel „Enterprise 2.0: The Dawn of Emergent Collaboration“ geht der Autor der Frage der optimalen Anwendung von dem Konzept nach. Mittlerweile findet sich die soziale Software in großen Unternehmen. Ein Video der deutschen Telekom zeigt veranschaulicht die Umsetzung in die virtuelle Realität und beweist, dass selbst Großkonzerne von Enterprise 2.0 überzeugt sind. 

Der Begriff SLATES (deutsch: Schiefertafel) fasst das zugrunde liegende System zusammen: 

  • S = Search & L = Links: Das firmeninterne Intranet als Informationsquelle wird kaum bis gar nicht von Mitarbeitern zur Informationsbeschaffung genutzt, sondern auf das World Wide Web zurückgegriffen. McAffee hingegen greift bei dem Entwurf des Enterprise 2.0 auf ein gut funktionierendes Suchsystem zurück – Google. Google ist der Vorreiter, wenn es darum geht, Informationen aus dem Internet zu beziehen. Das liegt unter anderem an dem ausgeklügelten Algorithmus den Google benutzt. Links mit einer hohen Aufruferzahl bekommen eine erhöhte Priorität zugeordnet, sodass das System an und für sich in der Lage ist, sich zu ändern und zu reflektieren. Das Intranet in Firmen hingegen wird von einer kleinen Entwicklergemeinschaft betreut und weist dementsprechend keine Flexibilität auf. Die Änderung der firmeninternen Suchsturktur macht das Unternehmen flexibler, anpassungsfähiger und effektiver. 
  • A = Autorin: Wikipedia hat gezeigt, dass viele Menschen das Bedürfnis haben, ihr Wissen mitzuteilen. Es geht nicht darum, dass die Mitarbeiter sich als Shakespeare wahrnehmen, sondern Wissen in Form von einem Kommentar, einem Link, einem Fakt usw. zu bereits bestehenden Artikeln im Intranet hinzufügen. Diese Eigenschaft der Mitarbeiter kann von Unternehmen für ihre eigenen Bedürfnisse genutzt werden, zum Beispiel durch Blogs in denen Wissen kumulativ angereichert wird. Die Kooperation mehrerer Mitarbeiter führt zu hochqualitativen, konvergenten und hilfreichen Artikeln. 
  • T = Tags: Das im voraus organisierte Verschlagworten macht wenig Sinn, da eine Kategorisierungsstuktur sich selber am besten organisiert, weshalb der Einsatz von sogenannten Tags sinnvoll ist. 
  • E = Extensions: „Extensions“, zu deutsch Erweiterungen, beinhalten Inhaltsvorschläge. Diese lehnen an den zum Beispiel durch Amazon bekannten Algorithmus: „User, die diesen Artikel gekauft haben, haben auch … gekauft“ an. Benutzer, die einen bestimmten Artikel gelesen haben, bekommen also automatisch einen ähnlichen Artikel vorgeschlagen. Das sich selber organisierende System kann dann erkennen, welche vorgeschlagenen Seiten tatsächlich aufgerufen wurden und verleiht ihnen eine höhere Priorität. 
  • S = Signals: Die Nutzer der sozialen Software werden über neue wichtige Erscheinungen entsprechend ihres Nutzerprofils informiert, sodass eine Überforderung vermieden wird, die leicht auftritt, wenn es zu viele und zu unstrukturierte Suchergebnisse gibt.

Die Firma Comundus befasst sich ebenfalls mit der Enterprise Kollaboration und dem Schaffen von virtuellen Arbeitsräumen. In einem veranschaulichendem Video wird das SLATES System dargestellt. 


Es wird klar, wie komplex das Thema der Kooperation ist, denn es wird nicht nur von den hier genannten Variablen beeinflusst. Genaue Vorstellungen, exakte Planung und ein bisschen Mut einen unbekannten Schritt zu gehen, gehören bei der Realisierung eines virtuellen Kooperationsraumes dazu. Die Wettbewerbsfähigkeit von vielen Unternehmen hängt in unserer globalen Welt von der optimalen Vernetzung ab. Enterprise 2.0 ist ein Versuch das Wissen, was wir heute haben, gewinnbringend umzusetzen und somit einen Vorteil in der Kommunikation, Kooperation und Koordination sichern zu können. 


Bildquellen: 

Bild 1:

http://www.wdr.de/bilder/mediendb/WDR4_2011/ratgeber/in_unserem_alter/img/2013/20130427/haende_reichen_wdr_imago_gr.jpg

Bild 2: 

http://neo-captive-bpo-solution.com/wp-content/uploads/2015/02/male-call-center-manager-female-agent-looking-at-computer.jpg

Bild 3:

http://www.returnofkings.com/wp-content/uploads/2015/01/diversity.jpg

Literatur:

Carroll, M. J., Rasson, B. M., Convertino, G. & Ganoe, H. C. (2005): Awareness and teamwork in computer-supported collaborations.Interacting with Computers 18 (2006), 21-46.

Clark, H., & Brennan, S. (1991): Grounding in communication. In L. Resnick, J. Levine & S. Teasley (Eds.), Perspectives on socially-shared cognition. Washington, DC: APA. S. 127–149.

Johnson, D. W., & Johnson, R. T. (1990): Cooperative learning and research. In S. Shlomo (Ed.), Co- operative learning theory and research. New York: Preager. S. 23–37.

Shannon, C., & Weaver, W. (1949): The mathematical theory of communication. Chicago, Il: University of Illinois Press. 

Wessner, M. & Pfister, H. (2001): Kooperatives Lehren und Lernen. In Schwabe, G.; Streitz, N.; Unland, R. (Hrsg.): CSCW-Kompendium – Lehr- und Handbuch zum computerunterstützten kooperativen Arbeiten. Berlin, Heidelberg u.a.: Springer, 251–263. 

Elektronische Quellen sind jeweils direkt verlinkt.