Die Planung der Gestaltung

Man muss die Dinge so einfach wie möglich machen. Aber nicht einfacher.

Albert Einstein

Unbenannt.1

Die Aufgabe in diesem Seminar ist es, selbst ein Denkwerkzeug im Team zu gestalten, also den Sprung in die Praxis zu wagen und Gelerntes anzuwenden. Das will geplant sein.

Zunächst muss natürlich klar sein, was man gestalten will. Soll ein neues Denkwerkzeug entwickelt werden oder ein bestehendes verbessert? Um den Ideenfluss in Gang zu bringen, notieren die Seminarteilnehmer zunächst in 60 Sekunden so viele Denkwerkzeuge wie möglich, die ihnen spontan zum Gestalten einfallen. Die Ideen werden ausgetauscht und die praktikablen Vorschlägen finden jeweils Anhänger, so dass sich Gestaltungsteams bilden. Nun ist zu überlegen, welche Aufgaben soll das geplante Werkzeug erfüllen und in welchem Umfang? Wo soll es eingesetzt werden und wer soll es benutzen? Das Ziel unserer Entwicklung sollte möglichst klar formuliert werden.

Unbenannt.2

Woran können wir uns bei der Planung orientieren?

Um das – möglicherweise noch etwas vage – Ziel mit größtmöglicher Wahrscheinlichkeit zu erreichen, gibt es Orientierungen. Eine mögliche ist die bereits an anderer Stelle erwähnte ISO-Norm 9241-210 (2010). Sie ist eine Richtlinie für einen iterativen und benutzerzentrierten „Prozess zur Gestaltung gebrauchstauglicher Systeme“. Das bedeutet, dass der Nutzer im Zentrum der Gestaltung steht und mit seinen Bedürfnissen, Kompetenzen und Aufgaben im jeweiligen Anwendungskontext über die gesamte Entwicklung erfasst werden muss. Ein neuer Lösungsvorschlag erfüllt Anforderungen erst dann, wenn er erfolgreich mit dem Anwender evaluiert wurde. Das zu entwickelnde Werkzeug soll ihn in der Ausführung seiner Aufgaben optimal unterstützen. Also: keep it simple!

Aufgabenbereiche

Unbenannt.3

Es bietet sich an, die Gestaltung in einzelne Aufgabenbereiche zu unterteilen, die nicht zeitlich nacheinander, sondern wiederholend (iterativ) oder sogar parallel durchgeführt und geplant werden sollten. Sie greifen sozusagen wie Puzzleteile ineinander.

Anforderungsanalyse

Da die Analyse der zentrale Ausgangspunkt für die Benutzerzentrierte Gestaltung ist, soll auf den Blog “Gestaltung eines Denkwerkzeuges” mit detaillierterer Ausführung verwiesen sein. Zusammengefasst geht es darum, den Benutzer in seinem Anwendungskontext zu verstehen. Zielgruppe und Nutzungskontext entscheiden über die tatsächliche Qualität des Werkzeuges. Wir sollten uns also konkret fragen: Welche Informationen brauchen wir für unsere Entwicklung hinsichtlich Nutzer, Aufgaben und Kontext? Ziel der Analyse ist es, den Soll-Zustand des geplanten Werkzeuges festzulegen. Dazu muss man ihn bei der anvisierten Zielgruppe erfragen, ihre Bedürfnisse heraushören, vielleicht ein Wunschbuch anlegen. Und es ist wichtig, den Ist-Zustand durch Einfühlen und genaue Beobachtung zu analysieren: Welche Aspekte sind wichtig?

Hier sind eigene Ideen und ggf. etwas Mut gefragt, um an aufschlussreiche Informationen heranzukommen. Eine umfangreichere Methode ist z.B. Contextual Inquirydie Beobachtung mit parallelem Interview der Beteiligten am Ort des Geschehens. Sie ist geeignet, wenn die Zielgruppe in einem klaren Kontext gut zugänglich ist. Unterschiedliche Aspekte wie genutzte Handlungsstrategien beim Einsatz der bisherigen Werkzeuge werden untersucht. Kontext (wie das physische Umfeld) und Nutzung (wie kulturelle Einflüsse) der geplanten Lösung werden detailliert beleuchtet. Dabei stößt man auf Verbesserungswünsche und Bedürfnisse der Benutzer und analysiert die vorhandenen Kompetenzen. Unbenannt.4

Die Methode bietet sich auch zu einem späteren Zeitpunkt an, wenn bereits ein Prototyp entwickelt ist, der sich Vorort auf diese Weise evaluieren lässt.

Je nach Zielgruppe und persönlichen Zugangsmöglichkeiten sind aber auch die Initiativ-Befragung am Telefon, im öffentlichen Raum oder unter Freunden und eine verdeckte bzw. offene Beobachtung zielführend. Nähere Ausführungen finden sich dazu im Blog zum „design thinking“. Außerdem sollte recherchiert werden, was an Anwendungen im anvisierten Aufgabenbereich bereits existiert, um vom aktuellen Stand zu lernen.

Für die Planung derartiger Aktivitäten müssen unsere vorhandenen Rahmenbedingungen bedacht werden: Wie verfügbar sind die Benutzer für Beobachtungen oder Interviews? Welche zeitlichen, räumlichen, finanziellen Beschränkungen liegen in den einzelnen Teams vor, welche Kontakte können wir nutzen etc.?

Auch wenn die Wünsche und Bedürfnisse der Nutzer die Grundlage für die Gestaltung sind, muss geschaut werden, was tatsächlich machbar ist.

Die gesammelten Informationen werden in den Teams zusammentragen, strukturiert und diskutiert. Erkenntnisse aus der Analyse von Benutzern und Kontext können z.B. in sog. Personas umgesetzt werden.

Personas sind prototypische Benutzer, die deren unterschiedlichen Ziele, Verhaltensweisen u. Eigenschaften verkörpern. Eine Persona beinhaltet neben Name, Alter, Geschlecht u.a. markige Charakterzüge und weiche Kriterien wie Ziele, Werte und Ängste. Sie kann durch passende Zitate aus Interviews unterfüttert und mit einem Porträt zu einer Art „Steckbrief“ ergänzt werden. Durch die Kategorisierung in primäre und sekundäre und Non-Personas umgrenzt man seine Zielgruppe und kann die Anwendung noch spezifischer darauf zuschneiden. Die Anzahl der erstellten Personas sollte möglichst klein gehalten werden. Personas sind als ein mögliches Benutzerprofil auch eine Richtlinie, welche Eigenschaften die Nutzer haben sollten, die bei der Evaluierung der Entwicklungsschritte rekrutiert werden. Sie helfen ebenfalls die Perspektive der anvisierten Benutzer einzunehmen und aus deren Sicht zu diskutieren.

Fürchte Fehler nicht, es gibt keine.  

Miles Davis

Modellieren

Hier geht es um das Finden und Optimieren von Gestaltungslösungen, um die analysierten Anforderungen zu erfüllen. Das bedeutet: Raum für Innovation und kreativen Austausch. Um auf neue, ggf. ungewöhnliche Lösungen zu kommen, könnte sich z.B. die sogenannte Collage-Technik nach dem Prinzip „Bilder füllen den Brunnen“ anbieten. Auch hier arbeitet man mit „Zeitbegrenzung“, um die spontane Kreativität anzuregen. Nachdem man sich kurz auf sein Ziel konzentriert hat, werden aus beliebig gesammelten Illustrierten in 20 Minuten zunächst so schnell wie möglich Bilder herausgerissen, die einem spontan ins Auge springen. In den verbleibenden Minuten klebt oder legt man die ausgewählten Bildteile auf ein leeres Blatt. Dadurch kann ein schöpferischer Prozess angestoßen werden. Die „chaotisch“ gefundenen Bilder fügen sich oft unerwartet interessant zusammen und regen Assoziationen zur Gestaltungsfindung an. Weitere Anregungen vor allem für die gemeinsame Kreativität bietet der Blog „design thinking“.

Unbenannt.10

Damit alle Mitglieder eines Teams eine genaue Vorstellung von dem haben, was entwickelt werden soll, hilft es ein sogenanntes Begriffsmodell (conceptual model) zu erstellen.

Das Begriffsmodell ist sozusagen das „Skelett“ des Systems. Es beschreibt, was der Nutzer mit dem System machen kann und welche Begriffe bzw. Konzepte er braucht, um zu verstehen, wie es funktioniert. Dazu müssen die in der Anwendung relevanten Begriffe oder Konzepte, die aus der Analyse gewonnen wurden, definiert und abgrenzt werden (Begriffslexikon). Der Nutzer muss eindeutig erkennen, was jeweils in diesem Kontext gemeint ist. So weiß z.B. ein Bibliotheks-Kunde, dass es sich bei Leihobjekten im Zusammenhang einer Bibliothekssoftware um Bücher, Zeitschriften etc. handelt. In einem Diagramm lässt sich die Vernetzung dieser Begriffe, ihre Assoziationen untereinander übersichtlich darstellen ebenso wie die Aktionen, die man mit ihnen durchführen kann. Die Begriffe können hierarchisch geordnet und durch Attribute gekennzeichnet sein bzw. zu Klassen generalisiert werden. So sind die einzelnen Medien (Buch, Zeitschrift, …) im erwähnten Beispiel Klassen des Oberbegriffs „Leihobjekt“. Das Begriffsmodell sollte so einfach und Aufgabenfokussiert wie möglich sein. Je direkter die Zuordnung zwischen der Operation des Systems und dem entsprechenden Aufgabenbereich, desto höher die Chance dass die angestrebte Lösung korrekt reproduziert und durch die Nutzer entsprechend angenommen wird.

Unbenannt.5

Ein solches Modell ist zentraler Koordinations-Ausgangspunkt für alle Team-Mitglieder, die das Werkzeug entwickeln und designen. Neben dem klärenden Aspekt kann man u.a. anhand dieser rohen Funktionsdarstellung sehen, welche Konzepte häufiger frequentiert werden und die entsprechenden Operationen einfacher gestalten. Dem „Skelett“ wird dann „Fleisch um die Knochen“ gegeben.

Nach dem Begriffsmodell lassen sich Szenarien und Use Cases schreiben, um die Nutzung der Anwendung zu veranschaulichen. Dabei sollte die im Modell genutzte Terminologie verwendet werden.

Szenarien beschreiben anhand eines konkreten Falles, wie die Benutzer das neue Werkzeug in der Realität einsetzen werden. Hier wird die Fähigkeit des menschlichen Gehirns genutzt, aus Beispielen Regeln abzuleiten. Durch die Wiedergabe markanter Interaktionsbeispiele kann die Anwendung des geplanten Werkzeuges schon früh und noch ohne genaue Details anschaulich umrissen werden. Dabei beschreiben sie neben dem Idealverlauf auch exemplarisch wichtige Ausnahme- und Fehlersituationen. Szenarien können zu unterschiedlichen Zeitpunkten in der Gestaltung entwickelt werden und unter verschiedenen Perspektiven der Anwendung. Man kann entweder die erstellten Personas dafür nutzen oder sie werden zusammen mit den potentiellen Benutzern erarbeitet.

Use Cases dienen u.a. zur Überprüfung der Zuverlässigkeit unserer Neuentwicklung. Zur frühzeitigen Veranschaulichung und Evaluierung bieten sich weiterhin die Erstellung von Storyboards und Wire Frames an. (siehe dazu Blog “Gestaltung eines Denkwerkzeuges”) 

Mit dem User Interface Prototyping werden nun erste Dialogschritte mit möglichst einfachen Mitteln umgesetzt und die Anwendung wird greifbar und vorstellbar. Durch die erhöhte Realitätsnähe werden auch bisher unentdeckte Anforderungen sichtbar. Es bietet sich in unserem Rahmen das Prototyping mit Papier und Bleistift an (LoFi Prototyping). Die gemeinsame Arbeit ist unkompliziert machbar, einfache Skizzen sind schnell erstellt und angepasst und einen Papier-Prototypen zu zerknüllen und wegzuwerfen, fällt leicht. Prototypen lassen sich in allen Gestaltungsstadien gut von ausgewählten Benutzern z.B. mittels Usability-Tests und Walkthroughs überprüfen.

Unbenannt.6Unbenannt.7

Spezifikation

Wenn genügend Klarheit über die vorgesehene Lösung herrscht, wird das zu erstellende System für die Entwicklung spezifiziert. In unserem Falle könnte das bedeuten, dass wir unseren Prototypen immer weiter ausfeilen. Mit der schrittweise zunehmenden Komplexität geht es auch darum, Funktionalität und Ästhetik zu verbinden. Dazu gehört, das Design selbst mit den Farb- und Schriftentscheidungen, der Verteilung der Funktionseinheiten auf der Oberfläche etc. sowohl mit den spezifischen Anforderungen und dem Geschmack der Zielgruppe wie auch mit den eigenen Ansprüchen und Machbarkeiten abzustimmen.

Unbenannt.9

Realisierung

Für die Realisierung der Lösung muss die Spezifikation in ein technisches Design umgesetzt, eine Software-Architektur entworfen und implementiert werden. Da dieser Aufgabenbereich den Rahmen unseres Seminars und ggf. auch unsere Kompetenzen übersteigt, können wir ihn in seiner Konsequenz vernachlässigen.

Evaluation 

Während des gesamten Prozesses werden die jeweils erstellten Resultate immer wieder mit Benutzern überprüft und optimiert. Im Seminar sind zwei Termine dafür vorgesehen, wobei der letztere bereits das dann aktuelle Abschlussmodell evaluiert. Die Teams sollten dazu vorher jeweils klare Kriterien aufstellen und sich ebenfalls überlegen, mit welchen Methoden sie diese mit den anderen Teilnehmern testen wollen.

Dokumentation des Gestaltungsprozesses

Um Schritte nachvollziehbar und wiederholbar zu machen, sollten die Entwurfsmuster und Skizzen gesammelt werden. Bei der Präsentation der Team-Ergebnisse lassen sie die anderen Teilnehmer am bis dahin geleisteten Weg teilnehmen. Das regt zur Diskussion an steigert den Lerneffekt.

Was ist bei der Planung zu beachten?

Wenn sich die Teams für ihre weitere Planung zusammenfinden, ist der nächste wichtige Schritt, die eigenen Ziele klar, präzise sowie messbar zu formulieren. Des Weiteren sollten durchaus mögliche Risiken bei einer Werkzeug-Entwicklung beachtet werden. So gefährden Projektrisiken den erfolgreichen Abschluss eines Projekts. Typische Projektrisiken sind z.B. schlechte Akzeptanz bei den Benutzern sowie zu viele, erst spät entdeckte Anforderungen. Produktrisiken hingegen gefährden den erfolgreichen Einsatz eines Produktes. So könnte schlechte Usability in einigen Anwendungen schwerwiegendere Folgen haben als in anderen. Die Identifikation solcher Produktrisiken ist für die Einplanung von Usability-Methoden im Projekt zentral. Mit „dem Ohr am Benutzer“ und seiner aktiven Einbeziehung können derartige Risiken identifiziert bzw. kontrolliert werden.

Die Ziele, mögliche Risiken und unsere Rahmenbedingungen bilden die Grundlage für unsere Planung und bestimmen den Methodeneinsatz. Welches sind die für uns am besten geeigneten Usability-Methoden? Zu welchem Zeitpunkt setzen wir sie ein? Mit wie viel (zeitlichem) Aufwand muss gerechnet werden und welche Fähigkeiten bzw. Kompetenzen brauchen wir dazu? Über welche Kompetenzen verfügen wir im Team? Das führt im Folgenden zur konkreten Planung und Aufgabenverteilung unter Berücksichtigung des vorgegebenen Zeitplans. Dafür sollte die gemeinsame Kommunikation geklärt und auch ein nächstes Treffen für den Beginn der Arbeiten ausgemacht werden. Zur gedanklichen Unterstützung ihrer Teamplanung erhalten die Seminarteilnehmer ein Handout, auf dem die im Seminar besprochenen Usability-Methoden und die relevanten Aufgabenbereiche noch einmal erinnert sind.

Unbenannt.8

Das wahre Geheimnis der Welt ist das Sichtbare, 
nicht das Unsichtbare.

Oscar Wilde

 

LITERATUR

 

Advertisements

Koordination

1 Definition & Kontext

Teufel, Dauter, Muelherr, und Bauknecht (1995, S. 12) definiert Koordination als „[…] jene Kommunikation, welche zur Abstimmung aufgabenbezogener Tätigkeiten, die im Rahmen von Gruppenarbeit ausgeführt werden, notwendig ist“. Malone und Crowston (1994, S. 90) definieren im Rahmen ihrer Coordination Theory kurz und prägnant: „Coordination is managing dependencies between activities“. Besonders im Hinblick auf die erst genannte Definition wird deutlich, dass die im Folgenden betrachtete Art an Koordination abzugrenzen ist von Koordination, die eine einzelne Person umsetzt, um sich selbst zu koordinieren.

Das Grundkonzept der hier betrachteten Koordination ist (in Anlehnung an Gross & Koch, 2007; Malone & Crowston, 1994; Teufel, et al., 1995) folglich dadurch gekennzeichnet, dass:

  • eine Abhängigkeit zwischen Aktivitäten vorliegt und dass
  • grundsätzlich unabhängige bzw. semi-autonome Akteure,
  • durch das Mittel der Kommunikation,
  • ein Ziel verfolgen und sich dafür abstimmen müssen.

Die hier behandelte Koordination ist folglich im globalen Kontext der Computer-Supported-Cooperative Work (CSCW) zu sehen (vgl. Abbildung 1). Diese Wissenschaft betrachtet Gruppenarbeit im Allgemeinen und die computer-gestützten, technologischen Unterstützungsmöglichkeiten im „computer-based systems, that support groups of people engaged in a common task (or goal) and that provide an interface to a shared environment” (Ellis, et al., 1991, S. 40). Es wird deutlich, dass trotz Überlappungen, die Begriffe nicht exakt synonym sind, sondern Groupware auf technische Aspekte und Werkzeuge fokussiert (Gross & Koch, 2007). Im Weiteren gibt es verschieden Ansätze Groupware-Anwendungen weiter zu klassifizieren. Hinsichtlich der Funktion der Interaktionsunterstützung wird von Teufel, et al. (1995) im Rahmen des 3-K-Modells unterschieden, ob Groupware-Systeme primär Kommunikation, Koordination oder Kooperation unterstützen. In anderen Worten ausgedrückt, ob primär der Informationsaustausch und die Verständigung zwischen Akteuren (Kommunikation), die Abstimmung aufgaben-bezogener Tätigkeiten (Koordination) oder die Arbeit in Richtung eines gemeinsamen Zieles und an gemeinsamen Artefakten (Kooperation) befördert wird. Kommunikation und Koordination stellen in diesem Sinne die Grundlagen für die Kooperation dar, wobei eine erfolgreiche Koordination den zuverlässigen und effizienten Ablauf von Kooperation sichert (Gross & Koch, 2007).

Groupware

Abbildung 1: Einordnung in den Kontext

2 Abhängigkeiten

Im Rahmen der Koordinationstheorie unterscheiden Malone und Crowston (1994) sowie Gross und Koch (2007) unter anderen die in Tabelle 1 genannten zielrelevanten Zusammenhänge bzw. Abhängigkeiten zwischen Aktivitäten. Aus den jeweiligen Abhängigkeiten ergeben sich Koordinationsprobleme (in Tabelle rot hervorgehoben), wie zum Beispiel die Allokation von Ressourcen. Um diese Koordinationsprobleme zu lösen, muss zusätzliche Arbeit in Form von Koordinationsmaßnahmen bzw. Mechanismen geleistet werden.

Abhängigkeiten (Auswahl), daraus resultierende Koordinationsprobleme und mögliche Koordinationsmechanismen zur Problemlösung

Tabelle 1: Abhängigkeiten (Auswahl), daraus resultierende Koordinationsprobleme und mögliche Koordinationsmechanismen zur Problemlösung (in Anlehnung an Gross & Koch, 2007; Malone & Crowston, 1994)

Zu beachten ist dabei, dass die dargestellten Abhängigkeiten keine abschließende Auflistung darstellen. Außerdem gibt es bei den Koordinationsmechanismen und noch verstärkt bei den im Folgenden dargestellten Koordinations-Werkzeugen Überschneidungen hinsichtlich der adressierten Abhängigkeiten (z. B. Gleichzeitigkeit und Zugriff auf gemeinsame Ressourcen bei Dropbox oder Erzeuger/Verbraucher Abhängigkeiten und Aufgaben/ Teilaufgaben im Projektmanagement) (Malone & Crowston, 1994).

3 Koordinationswerkzeuge

Es gibt zahlreiche Koordinationswerkzeuge, welche die Handhabung von Abhängigkeiten zwischen Aktivitäten erleichtern. Insbesondere dann, wenn eine zeitliche und räumliche Verteilung der beteiligten Akteure vorliegt, gewinnen diese Koordinationswerkzeuge an Bedeutung (Schwabe, 2001). Aber auch über eine räumliche und zeitliche Trennung hinaus, können Akteure unterschiedlichen Umständen unterliegen oder von unterschiedlichen Strategien geleitet werden, welche Koordination notwendig machen (Gross & Koch, 2007).

Im Folgenden werden drei Grundklassen von Koordinationssystemen beschrieben und Werkzeug-Beispiele zur Koordinationsunterstützung vorgestellt. Die Werkzeuge wurden dabei der Klasse zugeordnet, deren Koordinationsprozess sie explizit adressieren. Wie bereits im Abschnitt „Abhängigkeiten“ erwähnt können jedoch Überlappungen auftreten (Malone & Crowston, 1994). Grundsätzlich ist zu beachten, dass die Beschreibungen und Bewertungen der Werkzeuge entweder auf persönlichen Erfahrungen mit den Werkzeugen oder den Beschreibungen und Erfahrungen der angegebenen Quellen basieren und nicht den Anforderungen an eine systematische Usability Evaluation genügen.

3.1 Klasse 1: Koordination des Zugriffs auf gemeinsame Ressourcen

Beim gemeinsamen Arbeiten muss häufig der Zugriff auf gemeinsame Ressourcen (z. B. Räume, Speicherplatz etc.) koordiniert werden. Hierbei können gemeinsame Artefakte helfen. Gemeinsame Artefakte sind Anwendungen, die für verschiedene Benutzer Anzeigen bereitstellen und auch durch verschiedene Benutzer veränderbar sind. Ein Beispiel für ein physisches gemeinsames Artefakt ist ein gemeinsam genutztes Whiteboard. Beispiele für elektronische, gemeinsame Artefakt sind die Seite eines Wikis, ein Blog oder ein gemeinsam genutzter elektronischer Kalender. Wichtig für die Koordinationsunterstützung ist hierbei besonders, dass die Artefakte die Awareness bei den Benutzern fördern in dem der Status und Änderungen abgebildet werden (Gross & Koch, 2007).

Gemeinsame Kalendersysteme am Beispiel von Google Kalender  GoogleKalender

Gemeinsame Kalendersysteme sind bereits seit Ende der 1970er Jahre verfügbar und gehören somit zu den ersten Groupware-Anwendungen. Bei einem gemeinsamen Kalendersystem führen Teammitglieder ihren Kalender online und gewähren anderen Nutzern Zugriffs- oder auch Schreibrechte. Je mehr Rechte vergeben werden und je mehr Informationen veröffentlicht werden umso höher ist die Transparenz. Da dies nicht immer gewünscht ist, können hier Einschränkungen vorgenommen werden, indem z. B. nur angezeigt wird, dass ein Termin angelegt ist, aber nicht der Termininhalt.

Unterschiedliche Kalender können zudem beispielsweise (automatisch) auf gemeinsame freie Zeiten für Meetings verglichen werden. Ressourcen wie Räume können zugeordnet werden und Termineinladungen (automatisch oder nach Bestätigung) verschickt und (automatisch oder nach Bestätigung) eingetragen werden. Gemeinsame Kalendersysteme liefern somit eine Awareness- und eine Kommunikationsunterstützung. Zudem können die Kalender zentral als auch lokal verwendet und eingebunden werden (Gross & Koch, 2007; Schwabe, 2001).

Ein populäres Beispiel-Werkzeug stellt Google Kalender dar (vgl. Abbildung 2). Google Kalender erfordert eine Registrierung und ist kostenlos. Es können ganze Kalender freigegeben werden oder Einladungen zu Terminen versendet werden. Der Termin wird dabei automatisch im Kalender des Eingeladenen vorgemerkt und bei Bestätigung eingetragen. An anstehende Termine kann man sich erinnern lassen und Termine werden auf allen registrierten Geräten automatisch synchronisiert. Als weitere Verknüpfung werden Termine, die sich in GMail-E-Mails befinden ebenfalls direkt in den Kalender eingetragen (Google Kalender, 2015).

Das Terminfindungswerkzeug Doodle Doodle_logo

Für Personen die keinen gemeinsamen Kalender nutzen, sich aber dennoch terminlich koordinieren möchten, stellen Umfragen mit Doodle eine alternative Möglichkeit, bzw. eine Ergänzung zu Google Kalender dar. (vlg. Abbildung 3).

Doodle

Abbildung 3: Beispiel einer Doodle-Umfrage

Doodle-Umfragen können auch ohne Registrierung erstellt und beantwortet werden. Viele Funktionen sind kostenfrei enthalten. Für Premiumfunktionen und weitere Gestaltungsmöglichkeiten kann kostenpflichtig „Premium Doodle“ abonniert werden (29 €/Jahr für Einzelpersonen und ab 49 €/Jahr für Unternehmen). Die Auswahl eines endgültigen Termins wird von Doodle durch Hervorhebung des Termins, der für die meisten Teilnehmer passend ist, unterstützt. Es gibt eine App-Version und auch eine Verknüpfung mit Google Kalender ist möglich (Doodle, 2015). Als Nachteil kann angesehen werden, dass Umfragen grundsätzlich einsehbar sind, sofern die URL der Umfrage bekannt ist. Ein Auffinden einer einzelnen Umfrage ist allerdings aufgrund der zufällig generierten Adressen unwahrscheinlich. Aus meiner Sicht erfordert Doodle praktisch keine Einarbeitungsleistung, sondern kann sofort genutzt werden und ist somit trotz eingeschränktem Funktionsumfang ein nützliches Tool.

Dropbox dropbox_logo

Dropbox ist ein weit verbreiteter Cloud-Speicherdienst. Nach Angaben von Dropbox (2015) nutzen weltweit 400 Millionen Menschen diesen Dienst und das Dropbox-Prinzip dürfte zum allgemeinen Erfolg von Cloud Speicherdiensten beigetragen haben. Installiert man sich die Software, so wird ein lokales, virtuelles Laufwerk angelegt, welches mit dem Online Datenspeicher und allen registrierten Geräten synchronisiert wird. Insofern erfolgt ein automatisches Online-Backup. Online oder aus dem lokalen, virtuellen Laufwerk heraus lassen sich Dateien oder gesamte Ordner über einen Link leicht verteilen und herunterladen oder zum gemeinsamen Bearbeiten freigegeben. Wurde ein Ordner freigegeben, kann dieser durch den Eingeladenen in den eigenen Dropbox-Speicher (zu Lasten der verfügbaren Speicherkapazität) nach Zustimmung integriert werden (Radke, Scherschel, & Bleich, 2014).

Dropbox stellt in der Regel zwei Gigabyte Speicherkapazität kostenfrei zur Verfügung. Für zusätzliche Speicherkapazität muss bezahlt werde. Außerdem werden erfolgreiche Weiterempfehlungen mit zusätzlichem Speicher belohnt. Bezüglich der Datensicherheit bietet Dropbox zwar eine Zwei-Faktor-Authentifizierung, jedoch keine Ende-zu-Ende-Verschlüsselung. Die Bedienung ist nach meiner Erfahrung, als auch nach Bewertung von Radke, et al. (2014) gut. Insbesondere unter Berücksichtigung der Anzahl an angebotenen Funktionen.

Dropbox mit geöffnetem Kontextmenü

Abbildung 4: Dropbox mit geöffnetem Kontextmenü

3.2 Klasse 2: Aufgabensequentialisierung und Projektmanagement

Von besonderer Bedeutung für die Sequentialisierung von Aufgaben sind sogenannte Workflow Management Systeme.

Definition von Workflow Management Systemen

Ein Workflow bildet unter anderem ab, wie Aufgaben strukturiert sind, wer für eine Aufgabe zuständig ist und welche Aufgaben aufeinander aufbauen. Ein Workflow kann sowohl eine große Anzahl an Akteuren als auch viele Softwaresysteme einschließen. Nach Borghoff und Schlichter (2000, S. 332 zitiert nach Gross & Koch, 2007) umfasst das Workflow Management „all the functions of modelling, specifying, simulating, analysing, executing and monitoring a workflow“. Systeme, die diese Management Anforderungen unterstützten, werden folglich als Workflow Management Systeme bezeichnet. Diese Unterstützungsleistung erweist sich häufig auch im Rahmen von Projektmanagement als sehr hilfreich (Gross & Koch, 2007).

Im Folgenden werden als Werkzeug-Beispiele für Projektmanagementunterstützung Trello und Project PlacePro vorgestellt. Beide Werkzeuge zeichnen sich meiner Meinung nach durch eine intuitive Bedienung aus. Trello eignet sich aus meiner Sicht bereits für weniger komplexe Koordinationsanforderungen im Studium oder im Privaten, da die Einarbeitungszeit als gering einzuschätzen ist. Project PlacePro bietet mehr Funktionen und eignet sich für größere Vorhaben mit erhöhten Koordinationsanfordernissen. Am Ende des Kontinuums der Komplexität und Unterstützungsleistung (inkl. ausgeprägter Prüfmechanismen und ausgeprägtem Ressourcenmanagement) aber auch der Popularität, ist wohl Microsoft Project (aktuelle Version: MS Project 2013) zu verorten. Da sich Microsoft Project eher an Anwender mit Schwerpunkt im Projektmanagement richtet und Vorkenntnisse für ein umfassendes Verständnis der Funktionen hilfreich sind, wird hier auf die Vorstellung von Microsoft Project zu Gunsten von Trello und Project PlacePro verzichtet.

Trello Trello_Logo

Trello ist eine web-basierte Projektmanagement Software (Trello Inc., 2015). Der Nutzer legt für ein Projekt zunächst ein sogenanntes Trello-Board an, auf welchem er verschiedene Listen ergänzt. Die Listen werden dann mit Karten gefüllt, welche klassischerweise Aufgaben entsprechen (vgl. Abbildung 5). Diese Aufgaben können dann gemeinsam in einem Team bearbeitet werden, indem Teammitglieder zu diesem Projekt eingeladen und Aufgaben zugeordnet bzw. ausgewählt werden. Neben der Zuordnung von Akteuren zu Karten bzw. Aufgaben, können die einzelnen Karten, wie auch die Listen und das gesamte Projekt an die eigenen Bedürfnisse angepasst werden, indem beispielsweise Benennungen, Fälligkeiten, Dateien, Bilder, Labels und vieles mehr bestimmt werden (vlg. Abbildung 6). Die Benutzung ist dabei meiner Meinung nach intuitiv gestalten. Ein Klick auf Dinge die man anpassen möchte genügt, damit sich das entsprechende Menü öffnet. Sortierungen sind durch einfaches verschieben der Listen oder Karten möglich.

Trello Willkommens-Board

Abbildung 5: Das Trello Willkommens-Board (Bildquelle: https://trello.com/b/2HV9rGxQ/willkommens-board, 19.12.2015)

Neben der intuitiven Bedienbarkeit von Trello ist aus meiner Sicht positiv zu verzeichnen:

  • es gibt eine kostenlose Grundversion,
  • die Board-, Listen-, und Kartengestaltung ist sehr flexibel,
  • es können Boards von anderen Nutzern kopiert und genutzt werden, falls diese freigegeben wurden[1],
  • es kann zusammengearbeitet werden und die Synchronisation erfolgt in Echtzeit,
  • es gibt eine App und
  • die Kompatibilität mit anderen Anwendungen wie beispielsweise dem Google Kalender[2].

Kritisch könnte sich hingegen die Übersichtlichkeit bei großen Projekten gestalten. Auch eine detaillierter Verlaufsabbildung, wie beispielsweise bei einem Gantt-Chart realisiert, vermisse ich. Erhöhte Sicherheitsleitungen, wie Dateiverschlüsselungen bei Leerlauf, gibt es zudem auch erst gegen Gebühr (Trello Inc., 2015).

Trello Karte bearbeiten

Abbildung 6: Anpassen einer Trello-Karte durch Anklicken (Bildquelle: https://trello.com/c/YvQ1GVDO/9-zur-organisation-farblich-gekennzeichnete-labels-verwenden, 19.12.2015)

Projectplace Pro Projectplace_by_Planview_logo

Ein weiteres Beispiel für die Projektplanung stellt Projectplace Pro dar. Projectplace Pro verzeichnet aktuell (Stand 07.12.2015) 1.117.617 registrierte Anwender in 180.863 Projekten. Unter den Kunden finden sich nach Angaben der Projectplace GmbH (2015) auch Firmen wie DHL, Daimler, Vattenfalll und Sony.

Ein wesentliches Element von Projectplace Pro ist ein Kaban-Board (vgl. Abbildung 7), wie auch bei Trello. Auch hier werden Arbeitsschritte auf Karten abgebildet und Akteure können sich entweder selbst, entsprechend der ProjectPlace-Philosophie, als zuständig zuordnen (was deren Motivation fördern soll) oder werden vom Projektleiter zugeordnet (Schüler, 2015). Durch das Verschieben der Karten entsprechend des Status der Aufgabe und durch das Eintragen des Aufgabenfortschritts auf einer Punkteskala, wird für alle Teammitglieder die Awareness gefördert und der Projektfortschritt sichtbar. Dies soll zur Entlastung des Projektleiters beitragen. Auch hier sind, wie bei Trello, Kommentare und Kommunikation direkt bei den Arbeitsschritten möglich und Dateien können direkt an die entsprechenden Karten angehängt werden. Bei den Karten lassen sich zudem Größen wie der Arbeitsaufwand ergänzen (Projectplace GmbH, 2015).

Projectplace Pro Kanan-Board

Abbildung 7: Kanban-Board bei Projectplace Pro (Bildquelle: https://www.projectplace.de/funktionen/digitale-kanban-boards/, 07.12.2015)

Auf dem Kanban-Board ist somit die tägliche Arbeit abgebildet. Um den zeitlichen Überblick über das Gesamtprojekt zu optimieren und das Projekt zu strukturieren, sind die Karten zudem mit dem Gantt-Diagramm verknüpft (vgl. Abbildung 8). Diese klassische Darstellungsweise ist bereits von MSProject bekannt. Das Gantt-Diagramm enthält auch Meilensteine, Zwischenziele, eine Timeline, und Start- und Enddaten. Im Gantt-Diagramm werden Aufgaben in Form von Balken mit entsprechender Länger (entsprechend der Bearbeitungsdauer) und Abhängigkeiten zwischen Aufgaben mit entsprechenden Verknüpfungslinien abgebildet. Somit ist auch die Hierarchie ersichtlich, also welche Teilaufgaben zu welcher übergeordneten Aufgabe beitragen. Die unterste Hierarchieebene lässt sich dann auf die Kanban-Boards pinnen und der hier eingetragene Fortschritt wird wiederum im Gantt-Diagramm abgebildet und falls Verzögerungen auftreten auch automatisch angepasst (Projectplace GmbH, 2015; Schüler, 2015).

Besonders die Verknüpfung zwischen Kanban-Board und Gantt-Diagramm scheint ein innovatives Feature mit Mehrwert zu sein. Weiterhin positiv bewerte ich:

  • Verfügbarkeit einer kostenlosen Version (1 Projekt, max. 2 Kanban-Boards)
  • Übersichtlichkeit durch Reitermenü und unterschiedliche Darstellungsmöglichkeiten wie Kanban-Boards und Gantt-Diagramm,
  • Flexibilität und
  • modernes Design.

Nachteilig erscheint (Schüler, 2015):

  • das Bestimmen von Abhängigkeiten sei nicht intuitiv,
  • es gebe keine internen Prüfmechanismen (z. B. könne Teilaufgaben eine Fälligkeit nach der Fälligkeit der übergeordneten Aufgabe zugewiesen werden) und
  • die Planungshilfen für größere Vorhaben seien unvollständig.

Die Seminarteilnehmer merkten außerdem kritisch, dass die transparente Darstellung der Verantwortlichkeiten zu erhöhtem Druck und Kontrolle bei den Mitarbeitern führen könne.

Nach einer Testphase von zwei Wochen kann man sich neben der kostenlosen Version (Plan genannt) auch für den Plan Basic ($ 39 /Monat), den Plan Pro ($ 49 /Monat) und den Plan Enterprise (Preise nach Absprache) entscheiden.

Gantt-Diagramm in Projectplace Pro

Abbildung 8: Gantt-Diagramm in Projectplace Pro (Bildquelle: https://www.projectplace.de/funktionen/gantt-neu-definiert/, 07.12.2015)

3.3 Klasse 3: Synchronisation von Aktivitäten

Arbeiten mehrere Personen an einem Projekt bzw. einer Aktivität ist es notwendig, die vollzogenen Änderungen abzubilden, zu synchronisieren und ein letztlich ein zeitgleiches Arbeiten zu unterstützen. Als Beispiel Werkzeuge werden im Folgenden Git und GitHub vorgestellt.

Git git-logo

Git wurde 2005 von Linus Torvalds für die Arbeit am Linux-Kernel entwickelt. Ziel war es „eine Versionsverwaltung, die mit einer riesigen Menge Code und sehr vielen Mitarbeitern umgehen konnte“ zu entwickeln (Braun, 2014).

Git ist ein sogenanntes Versionskontrollsystem (Version Control System, VCS) und unterstützt sowohl die Archivierung von Inhalten als auch Teamwork. Dafür protokolliert Git das eigene Arbeiten in Form von Backups vorangegangener Versionen, die einfach wiederhergestellt werden können. Git funktioniert dabei verteilt, das heißt, dass sich Entwickler beispielsweise zunächst von einem Server eine lokale Kopie eines Repository (Datenbank inkl. Code und Versionsarchiv) speichern. An dieser „geklonten“ Version wird dann gearbeitet und vollzogene Änderungen wieder in das gehostete Archiv eingepflegt oder, sollte man dieses Recht nicht haben, an Personen mit entsprechenden Rechten eingereicht. Nach diesem System hat jeder Nutzer ein vollständiges Backup und kann an diesem unabhängig von anderen Nutzern arbeiten. Änderungen werden in Form von Commits protokolliert. Ein Commit ist dabei eine neue Version des Projektes im Repository. Diese „Einpflegungen“ ins Repository werden bestenfalls stufenweise (sogenanntes stagen) vorgenommen, damit auch zu einem späteren Zeitpunkt ersichtlich ist, welche Änderung (z. B. Korrektur von Rechtschreibfehlern, Ergänzung von Code etc.) vorgenommen wurde. Möchte man an einer alten und einer neuen Version parallel arbeiten bietet es sich an einen sogenannten branch, also eine Abzweigung bzw. einen Nebenpfad, anzulegen, der vom normalen Pfad, dem master abzweigt. Branches können dann wieder mit dem master gemergt also zusammengeführt werden. Im Detail bietet Git noch weitere Funktionen für eine erfolgreiche Versionierung.

Arbeiten mit Git

Abbildung 9: Arbeiten mit Git (Bildquelle: https://www.flickr.com/photos/malcolmtredinnick/1516857444, 23.12.2015)

Git muss unter Windows und Mac OS X zunächst heruntergeladen und installiert werden. Unter Linux erfolgt die Installation über den Paketmanager. Git kann dann einfach auf einem Rechner genutzt werden und benötigt grundsätzlich keinen Server. Bei mehreren Beteiligten, laufen Projekte, wie oben beschrieben, jedoch über einen ständig erreichbaren Server. Die Nutzung von Git erfordert etwas Einarbeitung, die sich nach Meinung von Braun (2014) jedoch für alle lohnt „deren Schöpfungen sich als Dateien manifestieren“. Als Unterstützung kann auch ein Client mit grafischer Oberfläche genutzt werden.

Übersicht zu Git Operationen

Abbildung 10: Übersicht zu Git Operationen (Bildquelle: https://commons.wikimedia.org/wiki/File:Git_operations.svg, 23.12.2015)

GitHub GitHub-Logo

Laut Braun (2014) ist GitHub die führende Open-Source-Plattform und wird mit Git genutzt. GitHub bietet dabei öffentlichen Zugriff auf den Code vieler verschiedener Projekte (z. B. Linux-Kernel). Möchte man an einem Projekt mitarbeiten, meldet man sich bei GitHub an und forked sich das gewünschte Projekt, was bedeutet, dass man sich eine private Version des Projekts klont. Der Code kann nun über Git auf den eigenen Computer kopiert und bearbeitet werden. Die vollzogenen Änderungen können anschließend zur Übernahme auf GitHub vorgeschlagen werden. Neben der Entwicklung wird durch GitHub auch die Kommunikation gefördert. So können zum Beispiel Fehler gemeldet werden oder Diskussionen stattfinden. Es bietet außerdem den Vorteil, dass sich jeder Interessierte an einem Projekt beteiligen kann. Über eine einfache Möglichkeit zur Meldung von Fehlern oder Verbesserungsvorschläge sind hierzu auch keine Programmier- und Git-Kenntnisse notwendig. Für Entwickler bietet es außerdem den Vorteil, dass kein eigener Git-Server betrieben werden muss.

GitHub wird zunehmend auch von Wissenschaftlern eingesetzt, die dort ein Forschungsprojekt öffentlich dokumentieren oder mit anderen Forschern gemeinsam an einem Projekt arbeiten. Die Versionskontrolle von Git bietet dabei eine einfach Möglichkeit, Veränderungen zu dokumentieren und notfalls Rückgängig machen zu können. Durch die öffentliche Verfügbarkeit von Daten und Analysen wird eine einfache Replizierbarkeit gewährleistet. Beispiele für eine wissenschaftliche Nutzung von GitHib findet sich zum Beispiel bei Boettiger (2015), einem Politikwissenschaftler der UC Berkeley. McDonnell (2012)gibt eine ausführliche Übersicht über die Nutzung von GitHub in der Wissenschaft.

4 Zusammenfassung

Es wurde gezeigt, dass Koordination dann nötig wird, wenn eine Abhängigkeit zwischen Aktivitäten vorliegt. Hierbei lassen sich verschiedene Abhängigkeiten unterscheiden. Es gibt unzählige Werk-zeuge zur Unterstützung von Koordination, die unterschiedliche Abhängigkeiten und Komplexitäten adressieren. Einige Beispiel-Werkzeuge wurden kurz vorgestellt und ihre Hauptfunktionen beschrieben. Grundsätzlich zeichnen sich die Werkzeuge durch eine hohe Flexibilität in ihrer Benutzung aus und die Unterstützung von Kooperation scheint als Selbstverständlichkeit Berücksichtigung zu finden. In diesem Sinne sei nochmals darauf verwiesen, dass bei der Auswahl eines Werkzeuges, neben der Funktionalität und Gebrauchstauglichkeit auch auf die Einbettung und die Akzeptanz in das soziale System zu achten ist. Hierzu ist es sinnvoll sich über klare Regeln der Nutzung zu einigen und auf deren Einhaltung zu achten (Gross & Koch, 2007).

Literaturverzeichnis

Boettiger, C. (2015). GitHub. Retrieved 22.12.2015, von https://github.com/cboettig

Braun, H. (2014). Unvergessen – Erste Schritte mit dem Versionskontrollsystem Git und mit GitHub. c’t, 5, 176-181.

Doodle. (2015). Doodle vereinfacht die Terminfindung. Retrieved 20.12.2015, von http://doodle.com/de/

Dropbox. (2015). Dropbox. Retrieved 06.12.2015, von https://www.dropbox.com

Ellis, C. A., Gibbs, S. J., & Rein, G. (1991). Groupware: some issues and experiences. Commun. ACM, 34(1), 39-58. doi: 10.1145/99977.99987

Google Kalender. (2015). Willkommen bei Google Kalender. Retrieved 20.12.2015, von https://support.google.com/calendar/answer/2465776?hl=de

Gross, T., & Koch, M. (2007). Computer-supported cooperative work: Oldenbourg.

Malone, T. W., & Crowston, K. (1994). The interdisciplinary study of coordination. ACM Computing Surveys (CSUR), 26(1), 87-119.

McDonnell, J. (2012). Git for Scientists: A Tutorial. Retrieved 22.12.2015, von http://nyuccl.org/pages/gittutorial/

Projectplace GmbH. (2015). projectplace by planview. Retrieved 07.12.2015, von https://www.projectplace.de/

Radke, J., Scherschel, F. A., & Bleich, H. (2014). Hoch verfügbar – Zehn Cloud-Datenspeicher im Test. c’t, 16, 72-77.

Schüler, P. (2015). Zusammen, was zusammen gehört – ProjectPlace Pro vereint agiles und klassisches Projektmanagement. c’t, 26, 75.

Schwabe, G. (2001). Koordinationswerkzeuge. In G. Schwabe, N. Streitz & R. Unland (Hrsg.), CSCW-Kompendium (S. 174-179). Berlin Heidelberg: Springer.

Teufel, S., Dauter, C., Muelherr, T., & Bauknecht, K. (1995). Computerunterstützung für die Gruppenarbeit. Bonn: Addison-Wesley.

Trello Inc. (2015). Trello. Retrieved 07.12.2015, von https://trello.com


 

[1] Zum Beispiel das Board „Research Iteration“ https://trello.com/b/8t9qgmNz/research-iteration, 19.12.2015.

[2] Für die Einbindung in z. B. Endnote, Dropbox, Github etc., ist ein Business Class Account für $ 8.33 pro Benutzer und Monat erforderlich (https://trello.com/pricing).

Virtuelle Kooperation: Wieso, weshalb, warum?

Der Transfer von einer im realen Raum stattfindenden Kooperation virtuell zu gestalten, ist ein schweres Unterfangen! 

Warum ist Kooperation eigentlich wichtig und wieso sollte in Erwägung gezogen werden diesen Prozess online zu gestalten (mehr dazu unter 1. Einleitung)? Was  sollte in einem virtuellen Kontext gegenüber einem realen Kooperationsraum alles beachtet werden (mehr dazu unter 2.Betrachtungsweisen) und gibt es bereits Praxisbeispiele zur Orientierung (mehr dazu unter 3.Praxisbeispiele)? 

Diese und weitere Fragen werden in diesem Artikel beantwortet. Weiterführende Links, aber auch hilfreiche Artikel in diesem Blog (vor allem zur Koordination und Kommunikation) helfen die Komplexität dieses Themas zu verstehen und vermitteln einen ersten Einstieg in das spannende Gebiet der virtuellen Kooperation.


1. Einleitung

Kooperation ist neben Kommunikation und Koordination ein wichtiges Konzept in der zwischenmenschlichen Verständigung. Kooperation, also die Zusammenarbeit zwischen zwei oder mehreren Individuen, hat es dem Menschen ermöglicht, seine moderne Welt zu bedingen, da er durch Kooperation befähigt wurde, zweckgerichtete Ziele zu erreichen. Eine drastische Veranschaulichung von Abwesenheit von Kooperation und Kommunikation bieten Wolfskinder, die über Jahre hinweg keine Möglichkeit zur Interaktion mit Mitmenschen hatten, sodass die Vermittlung kulturspezifischer Verhaltensweisen und Normen ausblieb bis hin zu einer drastisch hohen Mortalitätsrate unter diesen Kindern. Der Mensch als soziales Wesen ist also auf Kommunikation, Koordination und Kooperation angewiesen. 

Hände reichen

Bild 1: Menschen kooperieren zusammen und reichen sich die Hand. 

Unsere immer globaler, komplexer und vernetzter werdende Welt erfordert die Realisierung von virtuellen Kooperationsräumen, um den Ansprüchen und Anforderungen von diesen modernen Gegebenheiten gerecht zu werden. Diese Verlagerung bzw. Erweiterung von Kooperationsmöglichkeiten ist ein notwendiger Schritt in die Zukunft! Unternehmen mit Standorten auf verschiedenen Kontinenten sind gefordert, optimierte Denkwerkzeuge einzusetzen, um Prozesse der Entwicklung und Abstimmung zu erleichtern. Virtuelle Kooperationsräume sind hier das Mittel der Wahl. Schließlich wäre eine reale Teambesprechung ein enormer Kosten- und Zeitaufwand. Die Effektivität zeigt sich auch an Universitäten, zum Beispiel zur Organisation von Lernprozessen oder bei der Informationszusammentragung. Selbst Behörden profitieren durch die einfachere online Vernetzung und schaffen zusammen kooperierend eine schnellere Datenverarbeitung.


2. Betrachtungsweisen 

Virtuelle Begegnungen jeglicher Art werden unter anderem von individuellen Bedürfnissen, gruppendynamischen, psychologischen und technischen Faktoren beeinflusst. Zunächst stellt sich die Frage bei der Erstellung einer Plattform zur Kooperation nach grundlegenden Bedürfnissen der Kooperationspartner. Im weiteren wird der Frage nach dem richtigen Kommunikationsmittel zur Kooperation nachgegangen, wichtige pädagogische Tipps zur Gestaltung eines kohärenten Teams gegeben und Möglichkeiten aufgezeigt, eine möglichst realistische Begegnung online durch Awareness zu schaffen. Zum Abschluss sollen dann individuelle Faktoren berücksichtigt werden, die den Prozess hindern könnten. 

2.1. Virtuell kooperieren: Grundlegende Fragen

Institutionen, Unternehmen, Universitäten oder Behörden teilen sicherlich den Wunsch zwischen ihren Mitarbeitern bzw. Studierenden eine effektive Kooperation zu gestalten. Aber alle bringen offensichtlich verschiedene Faktoren mit, weshalb die Beantwortung grundlegender Fragen die Basis eines jeden virtuellen Kooperationsraumes bildet. Die Skizzierung erfolgt anhand folgender Faktoren: 

  1. Symmetrie: Der Wissensstand der teilhabenden Personen ist enorm wichtig, da ein starkes Wissensgefälle, wie es zum Beispiel bei Dozenten und Studierenden der Fall sein könnte. Im Gegensatz zu einem homogenen Wissensniveau wie zum Beispiel in Behörden erfordert andere Maßnahmen. 
  2. Ziel: Die Bedürfnisse einer Gruppe und vor allem der Output in Form des Ziels der Kooperation sollten klar definiert sein. An einer Universität wäre es denkbar, Informationen zusammenzutragen, anzuwenden und zu vertiefen, um neue Kompetenzen entwickeln zu können. Ein Unternehmen könnte hingegen nur an einem Sammelort für Informationen interessiert sein. 
  3. Direktivität: Der im Kooperationsraum entstehende Prozess sollte von Personen (oder Programmen) begleitet und betreut werden. Die Frage nach der Verantwortung könnte also durch eine sich selbst organisierende Einheit (z.B. durch gleichberechtigte Studenten) beantwortet werden oder durch Anleitung eines Administrators erfolgen. 
  4. Dauer: Arbeiten die Gruppenmitglieder über mehrere Phasen zusammen, wie es in Unternehmen bei der Realisierung von Projekten denkbar wäre, oder spontan für kurze Zeit, wie es an der Universität bei der Gestaltung eines Seminars der Fall sein könnte? 
  5. Größe: Bei der Größe reicht das Spektrum von Lernpaaren bis hin zu Gemeinschaften mit beliebig vielen Mitgliedern. 

2.2. Psychologische Aspekte: Kommunikation 

Eine Unterhaltung zwischen Gesprächspartnern läuft in einem realen Raum so natürlich und facettenreich ab, dass es für eine erfolgreiche Übertragung in einem virtuellen Kontext ein Verständnis über gelungene und misslungene Kommunikation bedarf. Als Grundmodell menschlicher Kommunikation dient oft das Sender-Empfänger-Modell aus der mathematischen Theorie der Kommunikation von Shannon & Weaver (1949). 

Fortwährendes Feedback von den Gesprächspartnern ermöglicht es dabei gegenseitiges Verständnis aufzubauen und abzusichern. Dieser Rückkoppelungsprozess durch verbale wie nonverbale Hinweisreize dienen nicht nur dem Verständnis, sondern auch der Koordination. Clark und Brennan (1991) haben Gesichtspunkte vorgeschlagen zur Bewertung unterschiedlicher Medien hinsichtlich ihrer Rückkoppelung. Die Kategorisierung von Kommunikationsmedien kann hilfreich sein, um im computervermittelten Settings, den richtigen Kommunikationsweg für die entsprechenden Bedürfnisse zu finden. 

Hierbei spielt die Hörbarkeit und Sichtbarkeit der Kommunikationspartner eine Rolle. Außerdem gibt es Medien, die ein gleichzeitiges Agieren ermöglichen und wiederum andere, die eine sequentielle Kommunikation voraussetzen. Wichtige zu beachtende Punkte sind ebenfalls die Nachprüfbarkeit und Revidierbarkeit der Unterhaltung.

male-call-center-manager-female-agent-looking-at-computer

Bild 2: Zwei Mitarbeiter nutzen computergestützte Kommunikationsmedien zur Verständigung mit einem anderen Team.

Der Kategorisierung zufolge weisen sich sozial präsente Medien wie Face-to-Face Programme (z.B. Skype) mit Hörbarkeit und Sichtbarkeit aus. Sie kommen einem realen Gespräch am nächsten, da hier die Möglichkeit des Feedbacks besteht, aber es wird auch deutlich, dass die textbasierten Medien (z.B. E-Mail) mit Nachprüfbarkeit und Revidierbarkeit spezifische Qualitäten haben. Es ist denkbar, dass bei wichtigen Vorgängen die textbasierten Medien, durch ihre Überprüfbarkeit und Korrigierbarkeit unbedachte Äußerungen eher ausschließen können. 

2.3. Pädagogische Aspekte: Gruppendynamik 

Online zu kooperieren ist zweifelsohne eine spezielle Sozial- und Interaktionsform, die einer pädagogischen Betrachtung bedarf, um Effekte wie zum Beispiel das Social Loafing (Soziales Faulenzen) vorzubeugen. Bei einer selbstständigen Auseinandersetzung ist das Individuum alleine für den Erkenntnisgewinn verantwortlich. Anders in einem kooperativen Kontext, in dem wechselseitig an einer Sache gemeinsam gearbeitet wird. Hier gibt es Faktoren zu beachten, die von Johnson und Johnson (1990) postuliert wurden, um gemeinsame, aber auch unterschiedliche Ziele zu verwirklichen.

Die Interdependenz der Gruppenzusammenhänge sollte von allen an dem Projekt beteiligten Personen als positiv wahrgenommen werden und die Interaktion innerhalb der Gruppe sollte gefördert und unterstützt werden. Die Einstellung einen Sachverhalt alleine besser bearbeiten zu können, wäre eine erhebliche Einbuße in der Motivation der Mitarbeiter. 

In Gruppen kann es vorkommen, dass sich Einzelne zurücklehnen, da sie davon ausgehen, dass die Gruppe den Erfolg auch ohne sie erreicht (Social Loafing). Aus diesem Grunde sollten sowohl Individualverantwortung, also auch Gruppenverantwortung, sichtbar gemacht werden. Der individuelle Beitrag muss erkennbar sein und das Individuum muss sich dafür verantwortlich fühlen. Die Gruppe sollte weiterhin darüber aufgeklärt werden bzw. sich bewusst sein, dass auch der Gruppenoutput bewertet wird. Die Sicherstellung dieser Ziele erfolgt über ein regelmäßiges Feedback und der regelmäßigen Nutzung von spezifischen Kommunikation und Gruppenfähigkeiten und -fertigkeiten. 

Zusammengefasst definiert, sollte das Know-How einer Gruppe bestimmt werden, Gruppenmitglieder sich verantwortlich fühlen und Feedback erfolgen. 

2.4. Soziologische Aspekte: Awareness 

Die Herstellung eines Gruppenkontextes ist ein weiterer wichtiger Aspekt, um eine Individualverantwortung sicherzustellen, damit eine erfolgreiche Kooperation erfolgt. Die Mitarbeiter müssen sich sicher sein, dass ihre Kooperationspartner „da sind“ in einem gewissen Sinne. Darüber hinaus müssen Fragen nach den Tools und Ressourcen der einzelnen Mitarbeiter adressiert werden, es muss klar sein, welche Informationen Mitarbeiter kennen und ihre Ziele und Erwartungen müssen auch deutlich werden. 

  • Social Awareness: Teilnehmende Personen werden über Interessen, Präferenzen oder auch Vorkenntnisse von anderen informiert. Darüber hinaus besteht die Möglichkeit,  Stimmungen anzeigen zu lassen. Diese können allerdings nicht in jedem Kontext förderlich sein und sollten gut bedacht eingesetzt werden. 
  • Activity Awareness: Die Benutzer können voneinander sehen, an welchem Ort sie aktiv sind und woran sie arbeiten. Hiermit wird das Ziel verfolgt, andere Benutzer sichtbar zu machen und die Gruppe wird sich über ihr bestehen bewusst.
  • Task Awareness: Kenntnisse und Fähigkeiten eines Gruppenmitglieds sind bei der Aufgabenverteilung von großer Bedeutung, sodass der aktuelle Zustand der Aufgabenverteilung klar wird. 

2.5. Diversity

Diversity bezeichnet all jene menschlichen Identitäten und Charakteristika, die unterscheidend zu anderen Menschen stehen. Hierbei kann sich Diversity auf vielfältige Erscheinungsformen beziehen, wobei es nicht nur um die klassischen, weil sichtbaren Differenzmerkmale, wie Geschlecht, Alter oder ethnische Zugehörigkeit geht, sondern auch um nicht unmittelbar erkennbare Merkmale, wie religiöse Überzeugung, sexuelle Orientierung, kultureller Hintergrund, Betreuungsverpflichtungen, Arbeitsrollen und Arbeitsfunktionen oder Arbeitsstil. Globale Unternehmen, aber auch national agierende Unternehmen, sowie jede andere zusammen agierende Organisationseinheit muss sich ernsthaft mit diesem Konzept beschäftigen, um erfolgreich alle Potenziale der mitwirkenden Personen ausnutzen zu können. 

diversity

Bild 3: Diversität innerhalb einer Belegschaft sollte als Chance und Ressource verstanden werden. 

Altersdiskrimierung trifft Unternehmen im Zuge der Verwicklung eines virtuellen Kooperationsraumes besonders massiv, deshalb soll dieser Diversitätsform eine genauere Betrachtung erfahren. Die soziale und ökonomische Benachteiligung von Einzelpersonen oder Personengruppen aufgrund ihres Lebensalters ist fatal, da gerade die Personengruppe mit einer langen Unternehmenszugehörigkeit viel Expertise beim Bewältigen von Problemen hat. Es kann davon ausgegangen werden, dass bis zu 80% des Wissens im Unternehmen an die einzelnen Mitarbeiter gebunden ist. Der Zugang von älteren Arbeitnehmern zu den neu geschaffen Strukturen ist ein Gewinn für das ganze Unternehmen, weshalb hier ein großes Augenmerk  auf  gezielte Schulungen der betroffenen Personengruppe, sowie die Schaffung einer inklusiven Gemeinschaft gerichtet werden sollte. 

Es ist erwiesen, dass ältere Menschen genauso wie jüngere in der Lage sind, Technik und Software zu benutzen und dabei sollte der Faktor der längeren Einarbeitung der älteren Belegschaft mit eingeplant werden. 

Stephan Grabmeier, ein Unternehmensberater, der Unternehmen auf dem Weg zur digitalen Transformation begleitet, beschäftigt sich ebenfalls mit der Thematik der Altersdiskriminierung und erklärt sowohl auf seiner Homepage, als auch in einem Video weiterführend Chancen und Risiken von Diversität.


 

3. Ein Praxisbeispiel: Enterprise 2.0

Enterprise 2.0 bezeichnet eine soziale Software, welche in Unternehmen zum Einsatz kommt, um die Zusammenarbeit zu unterstützen. Das von McAffee entworfene Konzept ist noch relativ neu, findet aber starken Anklang bei vielen Unternehmen. In seinem Artikel „Enterprise 2.0: The Dawn of Emergent Collaboration“ geht der Autor der Frage der optimalen Anwendung von dem Konzept nach. Mittlerweile findet sich die soziale Software in großen Unternehmen. Ein Video der deutschen Telekom zeigt veranschaulicht die Umsetzung in die virtuelle Realität und beweist, dass selbst Großkonzerne von Enterprise 2.0 überzeugt sind. 

Der Begriff SLATES (deutsch: Schiefertafel) fasst das zugrunde liegende System zusammen: 

  • S = Search & L = Links: Das firmeninterne Intranet als Informationsquelle wird kaum bis gar nicht von Mitarbeitern zur Informationsbeschaffung genutzt, sondern auf das World Wide Web zurückgegriffen. McAffee hingegen greift bei dem Entwurf des Enterprise 2.0 auf ein gut funktionierendes Suchsystem zurück – Google. Google ist der Vorreiter, wenn es darum geht, Informationen aus dem Internet zu beziehen. Das liegt unter anderem an dem ausgeklügelten Algorithmus den Google benutzt. Links mit einer hohen Aufruferzahl bekommen eine erhöhte Priorität zugeordnet, sodass das System an und für sich in der Lage ist, sich zu ändern und zu reflektieren. Das Intranet in Firmen hingegen wird von einer kleinen Entwicklergemeinschaft betreut und weist dementsprechend keine Flexibilität auf. Die Änderung der firmeninternen Suchsturktur macht das Unternehmen flexibler, anpassungsfähiger und effektiver. 
  • A = Autorin: Wikipedia hat gezeigt, dass viele Menschen das Bedürfnis haben, ihr Wissen mitzuteilen. Es geht nicht darum, dass die Mitarbeiter sich als Shakespeare wahrnehmen, sondern Wissen in Form von einem Kommentar, einem Link, einem Fakt usw. zu bereits bestehenden Artikeln im Intranet hinzufügen. Diese Eigenschaft der Mitarbeiter kann von Unternehmen für ihre eigenen Bedürfnisse genutzt werden, zum Beispiel durch Blogs in denen Wissen kumulativ angereichert wird. Die Kooperation mehrerer Mitarbeiter führt zu hochqualitativen, konvergenten und hilfreichen Artikeln. 
  • T = Tags: Das im voraus organisierte Verschlagworten macht wenig Sinn, da eine Kategorisierungsstuktur sich selber am besten organisiert, weshalb der Einsatz von sogenannten Tags sinnvoll ist. 
  • E = Extensions: „Extensions“, zu deutsch Erweiterungen, beinhalten Inhaltsvorschläge. Diese lehnen an den zum Beispiel durch Amazon bekannten Algorithmus: „User, die diesen Artikel gekauft haben, haben auch … gekauft“ an. Benutzer, die einen bestimmten Artikel gelesen haben, bekommen also automatisch einen ähnlichen Artikel vorgeschlagen. Das sich selber organisierende System kann dann erkennen, welche vorgeschlagenen Seiten tatsächlich aufgerufen wurden und verleiht ihnen eine höhere Priorität. 
  • S = Signals: Die Nutzer der sozialen Software werden über neue wichtige Erscheinungen entsprechend ihres Nutzerprofils informiert, sodass eine Überforderung vermieden wird, die leicht auftritt, wenn es zu viele und zu unstrukturierte Suchergebnisse gibt.

Die Firma Comundus befasst sich ebenfalls mit der Enterprise Kollaboration und dem Schaffen von virtuellen Arbeitsräumen. In einem veranschaulichendem Video wird das SLATES System dargestellt. 


Es wird klar, wie komplex das Thema der Kooperation ist, denn es wird nicht nur von den hier genannten Variablen beeinflusst. Genaue Vorstellungen, exakte Planung und ein bisschen Mut einen unbekannten Schritt zu gehen, gehören bei der Realisierung eines virtuellen Kooperationsraumes dazu. Die Wettbewerbsfähigkeit von vielen Unternehmen hängt in unserer globalen Welt von der optimalen Vernetzung ab. Enterprise 2.0 ist ein Versuch das Wissen, was wir heute haben, gewinnbringend umzusetzen und somit einen Vorteil in der Kommunikation, Kooperation und Koordination sichern zu können. 


Bildquellen: 

Bild 1:

http://www.wdr.de/bilder/mediendb/WDR4_2011/ratgeber/in_unserem_alter/img/2013/20130427/haende_reichen_wdr_imago_gr.jpg

Bild 2: 

http://neo-captive-bpo-solution.com/wp-content/uploads/2015/02/male-call-center-manager-female-agent-looking-at-computer.jpg

Bild 3:

http://www.returnofkings.com/wp-content/uploads/2015/01/diversity.jpg

Literatur:

Carroll, M. J., Rasson, B. M., Convertino, G. & Ganoe, H. C. (2005): Awareness and teamwork in computer-supported collaborations.Interacting with Computers 18 (2006), 21-46.

Clark, H., & Brennan, S. (1991): Grounding in communication. In L. Resnick, J. Levine & S. Teasley (Eds.), Perspectives on socially-shared cognition. Washington, DC: APA. S. 127–149.

Johnson, D. W., & Johnson, R. T. (1990): Cooperative learning and research. In S. Shlomo (Ed.), Co- operative learning theory and research. New York: Preager. S. 23–37.

Shannon, C., & Weaver, W. (1949): The mathematical theory of communication. Chicago, Il: University of Illinois Press. 

Wessner, M. & Pfister, H. (2001): Kooperatives Lehren und Lernen. In Schwabe, G.; Streitz, N.; Unland, R. (Hrsg.): CSCW-Kompendium – Lehr- und Handbuch zum computerunterstützten kooperativen Arbeiten. Berlin, Heidelberg u.a.: Springer, 251–263. 

Elektronische Quellen sind jeweils direkt verlinkt. 

Design Thinking

Bild

Was versteht man unter Design Thinking und woher kommt es?

Üblicherweise ist wirtschaftliches Denken rational und deduktiv. Es werden verschiedene Lösungen vorgestellt und daraus eine ausgesucht, die anschließend umgesetzt wird. Diese Lösungen sind zwar meist brauchbar, allerdings auch sehr naheliegend und leicht zu kopieren. Eine Alternative dazu bietet das Design Thinking, das in verschiedensten Bereichen wie z.B. Service, IT-geleiteter Kommunikation, Entertainment und Zusammenarbeit eingesetzt wird. Der Begriff Design bezieht sich dabei nicht ausschließlich auf die ästhetische Gestaltung physischer Produkte, sondern auf die Gestaltung von Ideen und Lösungen. Es geht darum, verschiedene Wege aufzuzeigen, Unbekanntes zu entdecken und dabei technische, wirtschaftliche und nutzerbezogene Anforderungen zu vereinbaren, um eine kreative Lösung zu finden.

„Design thinking is a human-centered approach to innovation that draws from the designer’s toolkit to integrate the needs of people, the possibilities of technology, and the requirements for business success.Tim Brown, CEO und Präsident von IDEO

Gründer und Erfinder des Design Thinkings sind der Informatiker Terry Winograd und Ingenieur Larry Leifer von der Stanford University sowie David Kelley, der Gründer der Design- und Innovationsagentur IDEO. Forschungsprojekte werden unter der Leitung von Larry Leifer im HPI-Stanford Design-Thinking-Research-Program und am Hasso-Plattner-Institut in Potsdam unter der Leitung von Christoph Meinel umgesetzt.

Aus welchen Kernelemente setzt sich Design Thinking zusammen?

People                                                                                                                                 Die Kernelemente des Design Thinkings bilden die drei Kategorien People, Place und Process. Dabei versteht man unter People das Team, dass zur Lösungsfindung zusammengestellt wird. Im Vordergrund steht kollektivistisches statt individualistisches Denken. Das Grundprinzip der Teambildung besteht darin, möglichst viele unterschiedliche Disziplinen zu vereinen. So enthält ein Team je nach Fragestellung z.B. Informatiker, Geisteswissenschaftler, Medienwissenschaftler, Biologen und weitere Experten. Nicht nur im wissenschaftlichen Hintergrund unterscheiden sich die Teammitglieder, sondern auch in ihrer Art zu denken und zu lernen. Nach der erfahrungsbasierten Lerntheorie von Kolb (1984) besteht der Lernprozess aus den Phasen Erfahrung, Reflexion, Denken und Handeln, bei denen jeweils ein bestimmter Lernstil relevant ist. Personen unterscheiden sich in ihrer Präferenz für einen Lernstil und sollten demnach in der entsprechenden Phase die Leitung übernehmen.Graphik Lernstile

Personen mit einem assimilating Lernstil haben beispielsweise ein gutes Verständnis für die Fülle an Informationen, behalten den Überblick und können Informationen in eine logische Form bringen. Personen mit dem converging Lernstil fällt es leicht, Theorien aufzustellen und Probleme zu lösen. Individuen mit bevorzugtem diverging Lernstil haben die Fähigkeit, konkrete Situationen aus unterschiedlichen Perspektiven zu betrachten, während Individuen mit der Präferenz für einen accomodating Lernstil meist aus aktiven und praktischen Erfahrungen lernen. Darüber hinaus sollte jeder Design Thinker über Fähigkeiten wie Empathie, integratives Denken, Optimismus, Experimentierfreude und Teamfähigkeit verfügen.

Place                                                                                                                                Das zweite Kernelement, Place, bezeichnet den Raum und die entsprechende Raumgestaltung. Ideen entfalten sich am Besten in einer freien und flexiblen Arbeitsumgebung, d.h. der Raum ist so gestaltet, dass er sich spontan an Bedürfnisse und Ideen der Mitglieder und des jeweiligen Projektes anpassen kann. Dazu dienen bewegbare Tische, Stellwände und andere Oberflächen, die zur Visualisierung von Gedanken und dem Teilen von Arbeitsergebnissen genutzt werden. Zusätzlich befinden sich viele bunte Materialien in den Regalen, die der Veranschaulichung von Ideen sowie dem Bauen von Prototypen dienen.

Process                                                                                                                              Das dritte Kernelement bezieht sich auf den Prozess. Grundsätzlich geht es darum, technische, wirtschaftliche und personenbezogene Aspekte nicht isoliert zu betrachten, sondern eine Überdeckung und eine Balance zwischen ihnen zu finden. Somit werden mit Hilfe von Technologien und dem Ziel des wirtschaftlichen Erfolgs Lösungen generiert, bei denen der Mensch bzw. Nutzer im Mittelpunkt steht. Dabei wird im Unmöglichen statt in Grenzen gedacht und das Versuch-und-Irrtum-Prinzip angewendet. Denn nur mit einer offenen Fehlerkultur und durch Ausprobieren lassen sich wirklich neue Lösungen und Ideen finden. Der Prozess des Design Thinkings ist iterativ und in sechs Stufen strukturiert. Die sechs Stufen umfassen Verstehen, Beobachten, Sichtweise definieren, Ideen finden, Prototypen erstellen und das Testen der Idee.

Graphik Prozess

Verstehen                                                                                                                      Beim Verstehen spielt die Empathie eine sehr zentrale Rolle. Teammitglieder müssen zwei Arten der Empathie beherrschen. Zum einem die interne Empathie, die sich auf das Team und die Zusammenarbeit bezieht. Bei Teammitgliedern mit verschiedenen wissenschaftlichen und vielleicht auch verschiedenen kulturellen Hintergründen und mit unterschiedlichen Denk- und Sprachstilen, ist es von Vorteil, dass man sich in die Perspektiven der anderen hineinversetzen kann und sich gegenseitig respektiert. Zum anderen die externe Empathie, die sich auf den Kunden und dessen Wünsche, Bedürfnisse, Wissen und Fähigkeiten bezieht.

Beobachten                                                                                                                    Die Phase der Beobachtung trägt deutlich zum Verstehen des Problems und des Umfelds bei. Es wird ein Beobachtungsraum festgelegt und verschiedene Methoden angewandt, um Erkenntnisse über die physikalische Umgebung, die Sprache, Eigenschaften, Kultur, Geschichte und Handlungen des potentiellen Nutzers zu erlangen. Somit erhält man einen Einblick darüber, wie die Menschen der Zielgruppe die Welt erklären und welche Bedeutung bestimmte Rollen und Aktivitäten für sie haben. Bei der Beobachtung geht es nicht nur darum, die fundamentalen Bedürfnisse und die Nützlichkeit zu erfassen, sondern vor allem die Bedeutung des Produktes und der Bedürfnisse. Nicht der Massenmarkt steht im Vordergrund, sondern der individuelle Nutzer. Eine mögliche Methode ist zum Beispiel die quantitative Marktforschung, aber vor allem die Interaktion mit dem Kunden ist sehr aufschlussreich. Dazu bedient man sich verschiedener Werkzeuge. Es gibt die teilnehmende Beobachtung, die sich manchmal als aufwendig oder schwierig gestaltet, da man zum Beispiel nicht immer in kurzer Zeit Mitglieder der Zielgruppe werden kann. Des Weiteren gibt es die nicht-teilnehmende Beobachtung, die direkt, zum Beispiel mit Kunden im Supermarkt oder im Labor oder indirekt, zum Beispiel per Video, durchgeführt werden kann. Zusätzlich zur Beobachtung werden oft formale oder informale ethnographische Interviews durchgeführt. Dabei bietet es sich an, die Interviews erst nach der Beobachtung durchzuführen, da oft bestimmte Fragestellungen erst durch die Beobachtung aufkommen. Heutzutage wird außerdem immer häufiger Netnographie eingesetzt, worunter man die Analyse von Social Media Plattformen und Online-Foren bezüglich eines bestimmten Themas oder eines bestimmten Produktes versteht. Eine weitere Möglichkeit ist es, Benutzertagebücher zur Informationsgewinnung heranzuziehen. Insgesamt sollte man die Vor- und Nachteile der verschiedenen Beobachtungsmethoden abwägen, da nicht jede Methode zu jeder Situation passt. In manchen Kontexten ist eine Beobachtung zum Beispiel gar nicht möglich. In der Phase des Beobachtens können vor allem Personen mit einem diverging Lernstil ihre Fähigkeiten einbringen, da verschiedene Perspektiven herangezogen und beachtet werden müssen.

Sichtweise definieren                                                                                               Nachdem man durch die Beobachtung sehr viele Informationen und Erkenntnisse gewonnen hat, ist der nächste Schritt das Definieren der Sichtweise. Das Ziel ist es, wesentliche Informationen herauszufiltern und von unwesentlichen Informationen abzugrenzen. Die verschiedenen Informationen beziehen sich auf die involvierten Personen, Handlungen, physikalische Dinge in der Umgebung, den zeitlichen Ablauf der Handlungen, das zu erreichende Ziel der Personen sowie auf gefühlte und ausgedrückte Emotionen. Am Ende dieser Phase stehen verschiedene abgeleitete Theorien und Annahmen, die zur Ideenfindung genutzt werden. Verschiedene Werkzeuge dienen der Strukturierung der Informationen. Zum Beispiel wird aus den ganzen Informationen eine Persona oder ein Stereotyp repräsentativ für die Zielgruppe kreiert. Des Weiteren hilft das Aufschreiben einer Geschichte über eine Handlung und einen Nutzer dabei, gewonnene Informationen festzuhalten, Handlungsmuster zu identifizieren und fehlende Informationen aufzufinden. Einen ähnlichen Zweck befolgt die Zwei-Mal-Zwei-Matrix. Darüber hinaus lassen sich mit der Zwei-Mal-Zwei Matrix Marktlücken erkennen. Hier trägt man beispielsweise verschiedene Kombinationen aus ordentlichen und unordentlichen und organisierten und unorganisierten Personen ein und erkennt, dass es noch keine Produkte für ordentliche, aber unorganisierte Personen gibt.Graphik messy

Letztendlich bietet auch ein Zeitstrahl einen guten Überblick über Informationen und die Entwicklung eines Marktes oder den Bedürfnissen und Erlebnissen einer Zielgruppe. Personen mit einem assimilating Lernstil übernehmen in dieser Phase die Leitung, da sie den Überblick behalten und die Informationen in logischer Reihenfolge ordnen können.

Ideen finden                                                                                                               Sobald die Sichtweise definiert ist, beginnt die Ideenfindung. Hier gewinnt die Zusammenarbeit im Team sowie das integrative Denken eine große Bedeutung. Es geht darum, möglichst viele originelle und ungewöhnliche Ideen zu finden. Oft entwickeln sich Ideen durch Brainstorming und werden auf Tischen, Stellwenden oder sonstigen Oberflächen skizziert, visualisiert und modifiziert. In dieser Phase leisten meist Teammitglieder mit einem converging Lernstil die entscheidende Arbeit.

Prototypen entwickeln                                                                                                Aus den verschiedenen Ideen werden dann einige ausgewählt und in Prototypen aus einfachen Materialen umgesetzt. Dabei sollte nicht zu viel Zeit und Mühe in die Prototypen investiert werden. Umso unfertiger und improvisierter ein Produkt aussieht, umso mehr Feedback und neue Ideenvorschläge erhält es.

Graphik Prototyp 2 Graphik Prototyp 1

Testen                                                                                                                                 Hat sich ein Protoyp zur Zufriedenheit des gesamten Teams weiterentwickelt, geht es über in die letzte Phase, das Testen. Potenzielle Nutzer dürfen das Produkt oder ein Konzept am Arbeitsplatz oder im Testlabor ausprobieren (User Test) und geben Feedback. Man orientiert sich an verschiedenen Kriterien der Usability Evaluation. Wichtige Kriterien sind zum Beispiel das Preis-Leistungsverhältnis, die Ausstattung, Effektivität und Effizienz.

Beispielprojekt                                                                                                                   Das Unternehmen Kaiser Permenante für Gesundheitsfürsorge hat in Zusammenarbeit mit der Design- und Innovationsagentur IDEO den Schichtplan von Krankenschwestern überarbeitet. Das Kern-Team bestand aus einem Strategen (einer Krankenschwester), einem Experte für Organisationsentwicklung, einem Technologie-Experten, einem Prozessdesigner, einem Gewerkschaftsvertreter und einem Designer von IDEO. Zunächst ging es darum, das Kernproblem zu verstehen und den Schichtwechsel vor Ort im Krankenhaus zu beobachten. Die Problemanalyse ergab, dass es zu jedem Schichtwechsel ein Debriefing über 45 Minuten gab, bei dem die Informationen über die verschiedenen Patienten ausgetauscht wurden. Dabei gab es sehr unterschiedliche Dokumentation- und Kommunikationsmethoden. So sprachen die einen beispielsweise persönlich miteinander, andere schrieben nur kurze Notizen auf einen Zettel, wieder andere zeichneten kurze Sprachnachrichten auf. Trotz der zeitaufwändigen Übergabe der Informationen wurden wesentliche Aspekte nicht richtig kommuniziert oder gingen verloren. Dadurch entstand eine große Lücke in der Versorgung. Das Design Thinking Team definierte das Problem konkret und generierte anhand von Brainstorming und Prototyping potentielle Lösungen. Letztendlich setzten sie die optimale Lösung um: Ein Programm mit einfacherer Software, das direkt im Patientenzimmer angebracht ist und mit dem die Krankenschwestern vorherige Notizen aufrufen und neue Notizen hinzufügen können. Insgesamt führte die Lösung zu einem besseren Informationstransfer und reduziertem Zeitverlust bei der Schichtvorbereitung und Patientenübergabe. Die Zeit zwischen Schichtbeginn und Kontakt mit dem ersten Patienten wurde halbiert und die Krankenschwestern konnten mehr Zeit der Pflege widmen. Langfristig gesehen führte die Lösung zu einer höheren Produktivität und Zufriedenheit.

Welche Aspekte des Design Thinkings sind für unseren Entwicklungsprozess der Denkwerkzeuge relevant?

  • Ein Team setzt sich am Besten durch möglichst viele verschieden denkende Mitglieder, die unterschiedliche Expertise und Fähigkeiten mitbringen, zusammen!
  • Ausgangspunkt ist immer der potentielle Nutzer mit seinen individuellen Wünsche, Bedürfnissen, Fähigkeiten und Wissenstand sein!
  • Das sechsstufige und iterative Vorgehen hilft bei der Strukturierung und Weiterentwicklung des Denkwerkzeugs!
  • Prototyping ist sinnvoll, um eine Idee zu visualisieren und zu verbessern!
  • Nur eine offene Fehlerkultur führt zu wirklich neuen Ideen und produktiven Verbesserungsvorschlägen!

Die beiden anderen Artikel Gestaltung eines Denkwerkzeuges und Planung der Gestaltung bieten noch weitere Vorschläge zur Vorgehensweise bei der Entwicklung eines Denkwerkzeugs.

Literatur

Elektronische Quellen                                                                                                      

Abbildungen    

 

 

 

 

Denkwerzeuge beim Schreiben – Schreiben als Denkwerkzeug

I. Denkwerzeuge beim Schreiben

Vom Faustkeil zu Microsoft Word

Die frühesten uns bekannten Bilder der Menschheitsgeschichte sind Höhlenmalereien, die mit dem vielseitigen Faustkeil gefertigt wurden. Was mit beispielsweise Jagdszenen begann, entwickelte sich später in eine Symbolsprache (z.B. Hieroglyphen bei den Ägyptern). Die Grundlage einer Schriftsprache und unserer heutigen Kommunikation war gelegt.
Eines der wichtigsten Schreibgeräte er Antike war der Stilus (auch Griffel genannt). Er bestand meistens aus Metall oder Knochen, manchmal auch aus Elfenbein.

Mit der spitzen Seite des Stilus war es möglich den Text in eine Wachstafel zu ritzen – mit der dickeren flachen Seite konnte man das Wachs wieder glatt drücken und das geschriebene korrigieren. Er fand bis ins 20. Jahrhundert regelmäßige Verwendung. Genauso war auch der Federkiel noch knapp 1500 Jahre nach seiner ersten Benutzung (ca. 400 n. Chr.) in vielen Haushalten

weiterhin Alltagsgegenstand. Dieser bestand in den meisten Fällen aus einer Gänsefeder, bei der die Federspitze aufwändig gereinigt, gehärtet und zurechtgeschnitten werden musste. Der Federkiel hatte den großen Vorteil, dass sich der Hohlraum der Feder mit Tinte vollsog. So musste man im Vergleich zum Vorgänger – das Schilfrohr – deutlich seltener ins Tintenglas tunken. Abgelöst wurde dieser durch die Verbreitung des Füllfederhalters. Die ersten „Füller“ gab es bereits 1850,

welche mit Ihren goldenen oder rostfreien Stahlfedern das gleichmäßige Fließen der Tinte ermöglichten. Der erste in Deutschland kommerziell verkaufte Füllfederhalter der Firma Soennecken im Jahre 1890 kostete noch einen durchschnittlichen Wochenlohn (Vergleich: der deutsche Bruttowochenlohn betrug im vergangenen Jahr ca. 615€).

 

Einige wenige Jahre nach der Erfindung des Füllers erfand der Däne Rasmus Malling-Hansen 1865 die erste sogenannte Schreibkugel – Vorläufer der mechanischen Schreibmaschinen. Der 1874 vorgestellte Schreibmaschine Remington Sholes & Glidden Typewriter vom gleichnamigen amerikanischen Waffenproduzenten besaß bereits mit minimalen Abweichungen die bis heute verwendete QWERTZ-Tastaturbelegung (engl. QWERTY). Die Buchstaben waren nicht mehr alphabetisch, sondern

entsprechend der Auftrittshäufigkeit der Buchstaben in der englischen Sprache angeordnet. Die am häufigsten verwendeten Buchstaben sollten sich möglichst nicht direkt nebeneinander befinden, um einem Verhaken der Buchstabenhebel der mechanischen Schreibmaschine vorzubeugen. Weitere ergonomische Gesichtspunkte führten dann zu der Tastaturbelegung, wie wir sie heute kennen.
Anfang des 20. Jahrhunderts entstanden die ersten Modelle von elektrischen Schreibmaschinen. Sie machten das schnelle Tippen leichter und weniger kraftintensiv, als seine mechanischen Vorgänger. In den 1980er Jahren war die Entwicklung der Schreibmaschine auf ihrem Höhepunkt. Sie hatten Diskettenlaufwerke, einen Massenspeicher und Bildschirme, die das Überarbeiten von Texten ermöglichten, bevor das ganze aufs Blatt gedruckt wurde. Sie waren quasi

Textverarbeitungssysteme, die sehr einem einfachen Computer mit integriertem Drucker und einem einzigen vorinstallierten Schreibprogramm ähnelten . Auch wenn tatsächlich noch bis heute in Brasilien und China Schreibmaschinen hergestellt und exportiert werden, wurden diese weitestgehend von der Erfindung des Computers aus dem Alltag verdrängt.

 

 

WYSIWYG vs. WYSIWYM

Der heutige Computer hat die Erstellung von schriftlicher Arbeiten deutlich vereinfacht, beschleunigt und vielseitiger gemacht. Zusätzlich wird im Arbeits- und universitären Kontext in den meisten Fällen erwartet auch eine digitale Version des geschriebenen Textes einzureichen. Heute wird kaum ein Studierender darum herum kommen zumindest ein Textverarbeitungsprogramm zu beherrschen. Diese kann man zwischen WYSIWYG– und WYSIWYM-Programmen unterscheiden.

WYSIWYG-Programme: What you see is what you get

Unter diese Kategorie fallen Programme wie Microsoft Word, Apple Pages, Open Office oder Libre Office (letzteren beiden können gratis heruntergeladen werden). Sie werden auch Echtdarstellungsprogramme genannt – das, was während der Bearbeitung auf dem Bildschirm zu sehen ist, wird nach dem Drucken so auch auf dem Blatt Papier zu sehen sein.

WYSIWYM-Programme: What you see is what you mean

Dem gegenüber stehen die WYSIWYM-Programme. Hier geht aus dem geschriebenen Text am Bildschirm der Zweck der Formatierung hervor. Ein solches Programm ist beispielsweise LaTex. Der Nutzer definiert seine Formatierungen anhand einer Programmiersprache.

Bildquelle

Großer Vorteil dieser Methode ist die sehr einfache Wiederverwendung einer einmal definierten Formatierung (Stylesheet). Möchte man beispielsweise seine universitären schriftlichen Arbeiten immer in einer einheitlichen Formatierung gestalten, muss diese nur einmal erstellt werden und kann für die nächsten Projekte immer wieder verwendet werden. Auch, wenn Formatierung und Inhalt eines Textes von zwei unterschiedlichen Personen erstellt werden , ist es über LaTex leicht möglich, den Inhalt in die vorgefertigten Stylesheets einzubinden.
Bei ungewöhnlichen Formatierungsvorstellungen, die auch nicht häufiger verwendet werden sollen, kann der Aufwand der Erstellung eines solchen Stylesheets den Nutzen jedoch übersteigen. Möglicherweise ist in solchen Fällen die Verwendung eines Echtdarstellungsprogramm schneller und einfacher. Ein Versuchs-Irrtums-Vorgehen ist bei WYSIWYM-Programmen deutlich schwieriger.

 

II. Schreiben als Denkwerkzeug – Schreibdenken von Ulrike Scheuermann

Nach Diplom-Psychologin, Autorin und Coachin Ulrike Scheuermann kann auch das Schreiben selbst in Form von verschiedenen Übungen als Werkzeug dienen, welches sowohl das Schreiben als auch das Denken  voranbringt.  Zunächst möchte ich den prototypischen Schreibprozess für wissenschaftliche schriftliche Arbeiten von Ulrike Scheuermann beschreiben, um dann im Folgenden die Frage beantworten zu können, was Schreibdenkaufgaben eigentlich sind und weshalb sie helfen.

Schreibprozess

1. Einstimmen

Zu Beginn sollte man sich in eine positive Schreibstimmung bringen. Man stimmt sich auf ein gelingendes, freudvolles schreiben ein. Zusätzlich sollte man an dieser Stelle einen realistischen Zeitplan für sein gesamtes Schreibprojekt erstellen. In vielen klassischen Schreibprozessmodellen ist diese Phase nicht zu finden, spielt bei Ulrike Scheuermann jedoch eine wichtige Rolle.

2. Ideen entwickeln

Die zweite Phase besteht aus dem selbstständigen generieren von Ideen zu dem Thema. Das Ganze sollte unbedingt vor dem Lesen der Literatur geschehen, um sich nicht beim Sammeln von Ideen an den Gedanken anderer Autoren zu orientieren. Das Bewerten und Aussieben der Literatur findet erst in der nächsten Phase des Schreibprozess statt und ist hier nicht gemeint.

3. Strukturieren

In dieser Phase wird die Grobstruktur des Textes geplant: es entsteht eine Gliederung. Hierzu sollte selbstverständlich passende Literatur hinzugezogen werden.

4. Rohtexten

Dies ist die zentrale Phase des Schreibprozesses: es entsteht ein ausformulierter Text. Dieser sollte möglichst schnell „runtergeschrieben“ werden. Das Überarbeiten des Textes soll an dieser Stelle noch nicht stattfinden.  Textabschnitte, die einem an dieser Stelle noch unausgereift vorkommen, können markiert und später überarbeitet werden.  Dies verhindert langsames und stockendes Schreiben.

5. Reflektieren

Die fünfte Phase ist die leichteste: den fertig geschriebenen Text lässt man eine oder mehrere Nächte ruhen, um seine Gedanken zum Text „reifen“ zu lassen. Auch diese Phase ist in vielen anderen prototypischen Schreibprozessen nicht zu finden.

6. Überarbeiten

Nach Ulrike Scheuermanns Methode sollte für das Überarbeiten 40-50% der Gesamtzeit für das Schreibprojekt investiert werden. Der Rohtext sollte zuerst nach strukturellen und inhaltlichen Gesichtspunkten überarbeitet werden. Anschließend bessert man  Formulierungen aus und zum Schluss wird genaustens auf Grammatik, Rechtschreibung und korrekten Zitationen geprüft. Die womöglich sehr lang erscheinende vorgeschlagene Überarbeitungszeit kommt deshalb zu stande, da in der Phase des Rohtextens tatsächlich noch keinerlei Überarbeitung stattfinden sollte.

7. Veröffentlichen/ Abgabe der Arbeit

Die Arbeit wird bei Journals eingereicht oder beim Dozenten/ der Dozentin abgegeben.

Die von Ulrike Scheuermann zusammengetragenen und selbst entwickelten Schreibdenkübungen können in mehreren Phasen dieses Schreibprozesses gewinnbringend eingesetzt werden:

Schreibdenken – Was ist das?

Schreibdenken ist der Überbegriff von zahlreichen assoziativen Methoden, bei denen in Einzelarbeit Texte oder Bilder entstehen. All diese Übungen haben gemein, dass sie sich stark an der inneren Sprache orientieren (also so, wie wir denken). Die entstandenen Texte sind nur für einen selbst bestimmt – also privat. Dies soll der Beeinflussung von z.B. Bewertungsangst vorbeugen. Auch von eigenen überkritischen Gedanken sollte man sich möglichst lösen und unzensiert arbeiten. Die allermeisten Übungen sind außerdem recht kurz (~5 Minuten) – nur wenige dauern mehr als 10 Minuten.

Untergliedern lassen sich die Übungen in die Kategorien Schreibsprints, Denkbilder und Denkwege.

1) Schreibsprints

Bei diesen Übungen steht vor allem das hohe Tempo der Bearbeitung im Vordergrund. Vor allem hier wird direkt an der inneren Sprache angeknüpft.
Beim sogenannten Gedankensprint beispielsweise soll man 5 Minuten alle Gedanken genau so aufschreiben, wie sie einem in den Sinn kommen. Dies können ganze Sätze oder nur einzelne Stichpunkte oder Wörter sein – je nachdem, wie einem die Gedanken kommen. Aspekte wie Rechtschreibung sind völlig egal und zum Korrigieren fehlt die Zeit. Nach Ablauf der Zeit liest man sich sein Geschriebenes durch, markiert und kommentiert wichtig erscheinende Teile und bringt alles mit einem zusammenfassenden Kernsatz auf den Punkt. Den Gedankensprint kann man z.B. gut als Einstieg in ein Schreibprojekt anwenden, da es nach Ulrike Scheuermanns Erfahrung die Motivation und den Spaß am Schreiben fördern solle.
Ein Gedankensprint lässt sich auch leicht in einen Fokussprint modifizieren, indem man sich vor der Übung auf ein bestimmtes Thema – z.B. das Thema der anstehenden Schreibarbeit – fokussiert. Hier findet eine geringe Zensur der eigenen Gedanken statt, da man, wenn man merkt, dass man vom festgelegten Thema abweicht, sich wieder zu seinem Fokus zurückbesinnen kann. Diese Übung kann vor allem in Phase 2 des Schreibprozesses bei der Ideengenerierung helfen.

2) Denkbilder

Die Denkbilderübungen beginnen immer mit einer Entspannungs- bzw. Achtsamkeitsübung bei der man sich auf innere Szenen, Bilder oder auch Sätze konzentrieren soll. Diese entstehen entweder von alleine oder werden angeleitet (z.B. durch Audio-Instruktionen). Bei der Übung Innere Bilder soll man seine Aufmerksamkeit beispielsweise auf den späteren Erfolg der Arbeit oder die positive Reaktion von Hunderten von Lesern richten. Am Ende dieser Übungen soll man sich die eindrucksvollsten Bilder notieren oder skizzieren. Die Denkbilderübungen unterstützen vor allem bei einer kreativen Vorbereitung in der ersten Phase des Schreibprozesses (Einstimmen) und fördern die Motivation.

3) Denkwege

Aufgaben aus dieser Kategorie unterstützen bei der Strukturierung und Planung der Arbeit. Sie helfen vor allem denjenigen, die Probleme damit haben einen roten Faden zu behalten. Bei der Übung Textpfad sollen auf der linken Seite eines Blatt Papiers untereinander die Strukturelemente (Einstieg/Ausstieg, Thesen, Argumente, Beispiele etc.) notiert werden und ähnlich der Notationen von Strukturgleichungsmodellen verschiedene Formen als Umrandungen erhalten (z.B. Rechtecke für Thesen). Im Anschluss schreibt man rechts neben diese Formen stichpunktartig seine inhaltlichen Überlegungen zu den einzelnen Bausteinen. Übungen dieser Art helfen nicht nur in der Phase des groben Strukturierens der Gesamtarbeit, sondern auch beim Rohtexten und der Einhaltung eines roten Fadens innerhalb kürzerer Textabschnitte.

Schreibdenken – Wieso hilft das?

Ulrike Scheuermann stellt die These auf, dass man mit regelmäßig durchgeführten Schreibdenkübungen besser denken, besser lernen, besser lehren und besser schreiben könne.

Besser denken

Bei Schreibdenkaufgaben, insbesondere bei Schreibsprints, beobachtet man sich selbst beim Denken. Man arbeitet schnell und nach etwas Übung auch unzensiert. Auf diese Weise können einem Gedanken oder Ideen einfallen, die einem von alleine vielleicht nicht gekommen wären – möglicherweise, weil man sich zu sehr von den Ideen anderer Autoren leiten ließ oder weil die eigene innere Kontrollinstanz  bestimmte Gedanken unterdrücken. Durch die hohe Geschwindigkeit der Übungen bleiben für solch kritische Nebengedanken keine kognitiven Kapazitäten übrig. Aus schwer formulierbaren implizitem Wissen kann auf diese Weise explizites Wissen werden.

Besser lernen

Ulrike Scheuermann verwendet das Ein- und Ausatmen als Analogie zum Lernprozess. Das Einatmen ist die Informationsaufnahme. Das Ausatmen ist die Aktivität mit diesem Wissen. Bei Schreibdenkaufgaben wird das „eingeatmete“ Wissen mit seinen eigenen Denkprozessen integriert. Ein Transfer zu anderen Themengebieten oder bereits gelerntem Wissen wird damit deutlich unterstützt das Lernen erleichtert.

Besser lehren

Ulrike Scheuermann übt deutliche Kritik an vorschnell und zu häufig eingesetzter Gruppenarbeiten im universitären Kontext. Oft werden Studierende aufgefordert Ideen in einer kleinen Gruppe oder im Plenum zu sammeln (z.B. Brainstorming an der Tafel). Dieses Vorgehen unterliegt jedoch einigen sozialpsychologischen Phänomenen, die die Ideenfindung behindern können. Beispielsweise reden in solchen Situationen häufig die gleichen Teilnehmer. Die Angst durch die Bewertung anderer oder ein „soziales Faulenzen“ (‚Ich kann mich zurücklehnen – die anderen werden schon arbeiten…‘) könnten hierbei eine Rolle spielen. Auch Produktionsblockaden (nur einer kann sprechen – man muss also darauf warten seine Ideen äußern zu können) oder eine zu schnelle Fokussierung auf die zuerst genannten Gedanken können zu einer eher oberflächlichen Ideenfindung führen.

Bei Schreibdenkaufgaben hingegen sind zunächst erstmal alle aktiv und alle Teilnehmer generieren Ideen. Ein Zusammentragen oder eine Diskussion über diese Ideen ist im Anschluss natürlich immer noch möglich, ist dann aber vielleicht tiefergehend als beim Brainstorming.

Besser schreiben

Die Autorin ist fest davon überzeugt, dass regelmäßig durchgeführte Schreibdenkaufgaben die generelle Motivation zu Schreibprojekten fördert. Der Einstieg in eine Schreibarbeit, den viele gerne vor sich herschieben, soll damit erleichtert werden.
Außerdem kann sich nach und nach durch die nahe Orientierung an der inneren Sprache eine eigene Schreibstimme entwickeln. Derartige Texte seien lebendiger, authentischer und inspirierender.

Während Schreibwerkzeuge wie der Füllfederhalter, die Schreibmaschine oder Textverarbeitungsprogramme bei der Erstellung und Formatierung der Arbeit unabdingbar sind, kann das Schreiben selbst in Form von Schreibdenkaufgaben eingesetzt werden, um einen angenehmen Einstieg in sein Thema zu finden, Ideen zu sammeln, seinen Text zu strukturieren oder Schreibblockaden zu überwinden.

Quellen

Baur, M., Bauer, M., Samjeske, M. (2008). Die Entwicklung der Schreibgeräte und ihr Einfluss auf die Kommunikation. Hochschule Aalen. Abgerufen am 30.11.2015 von: http://www.frankbarth.de/fileadmin/Studierende_MW/EntwicklungSchreibgeraete.pdf

Scheuermann, U. (2012). Schreibdenken – Schreiben als Denk- und Lernwerkzeug nutzen und vermitteln (1. Aufl.). Opladen & Toronto: Verlag Barbara Budrich.

Bildquellen: im Link unter den Bildern

 

Erfolgreich präsentieren – aber wie?!

Als Musiker steht man auf der Bühne, alle Augen sind auf einen gerichtet und man hat nur diese eine Chance sein Publikum von sich und seinem Können zu überzeugen. Unterstützt wird man von Verstärkern, Bühnenlicht etc., aber man selbst hat es in der Hand diese Mittel für sich zu nutzen und alle zu begeistern. Auch bei einer Präsentation steht man auf einer „Bühne“ und muss seine Zuhörer von sich und seinem Thema überzeugen. Dafür hat man auch verschiedenste Hilfsmittel, wie eine digitale Präsentation, Anschauungsmaterial etc., die den Präsentierenden bei dem Gelingen seiner Präsentation unterstützen, aber niemals ersetzen können. Der Vortragende, also du ganz alleine, kannst deine Präsentation überzeugend gestalten und deine Zuhörer begeistern.

 

1. Was ist eine Präsentation?

Im Gegensatz zu einer Rede oder einem Vortrag, wird bei einer Präsentation immer eine Idee oder ein Produkt veranschaulicht. Den Zuhörern sollen in strukturierter Art und Weise, mit der Unterstützung visueller Hilfsmittel, verschiedene Inhalte näher gebracht und genauer erklärt werden (Williams, 2010).

Präsentationsbewertung

Umfrage Wall Street Journal (Akhaven-Hezavei et al., 2014)-eigenes Diagramm

Einer Umfrage des Wall Street Journals zufolge, werden gerade mal drei Prozent der Präsentationen als begeisternd empfunden.Der Rest wird als langweilig, einschläfernd oder befriedigend bewertet (Akhaven- Hezavei, Rodatus & Rompel, 2014). Es scheint wohl nicht so einfach zu sein, seine Zuhörer mitzunehmen und ihnen eine Präsentation zu zeigen,die sie so schnell nicht mehr vergessen werden.

Aber was macht eigentlich genau eine gelungene, begeisternde Präsentation aus (Williams, 2010) und was sind die Erfolgsgeheimnisse zeitgemäßer Präsentationen (Akhaven-Hezavei et al., 2014)? Oder anders gefragt, was sind die Faktoren, die zu einer nicht-gelungene Präsentation führen und dazu, dass die Zuhörer am liebsten den Raum verlassen würden (Williams, 2010)?

 

2. Was macht eine gelungene vs. nicht gelungene Präsentation aus?

Die Struktur einer überzeugenden Präsentation sollte klar und einfach gehalten sein. Ein interessanter Inhalt, abgestimmt auf die Zuhörer, wird am Besten in wenigen aussagekräftigen Stichpunkten präsentiert. Der Vortragende sollte sich intensiv mit dem Thema auseinander gesetzt und seinen Auftritt eingeübt haben. Wichtig für eine erfolgreiche Präsentation ist vor allem die Interaktion mit dem Publikum. Diese kann durch ein humorvolles Auftreten aufgelockert werden und mit Hilfe anschaulicher Videos oder spannender Gruppenarbeiten abwechslungsreich gestaltet werden. Die digitale Präsentation sollte bildreich, schlicht und hochwertig dargestellt sein. Der Einsatz von relevantem Anschauungsmaterial und gelungenen Animationen kann die Präsentation zu etwas Besonderem machen. Insgesamt sollte man den Ansatz „weniger ist mehr“ befolgen und die Zuhörer nicht mit überflüssigen Folien überhäufen.

Dem gegenüber ist eine nicht-gelungene Präsentation charakterisiert durch eine unordentliche Struktur des Vortrags zusammen mit einem langweiligen Inhalt, der nicht auf die Zuhörer zugeschnitten ist. Eine schlechte Vorbereitung gepaart mit einer monotonen Stimme des Vortragenden macht eine überzeugende Präsentation nahezu unmöglich. Wenn man den Blickkontakt mit dem Publikum meidet und somit unterbewusst Desinteresse an seinen Zuhörern vermittelt, kann der Inhalt noch so spannend sein, aber wahrscheinlich wird die Aufmerksamkeit nachlassen. Bei der digitalen Präsentation ist eine unübersichtliche Gestaltung in Kombination mit viel zu viel Text und dieser in verschiedenen Farben und Schriftarten präsentiert, ein ziemlich sicherer Aspekt einer nicht- gelungenen Präsentation. Hier ein Videobeispiel, wo auf humorvolle Art und Weise eine schlechte Präsentation gezeigt wird.

Ist die nachfolgende Folie ein Positivbeispiel einer gelungenen Folie oder wird sie eher als eine nicht-gelungene Folie definiert?

Bild 2

Franck, 2012

Diese Folie ist eindeutig ein Negativbeispiel, so sollte man seine Folien definitiv nicht gestalten. Die Schrift ist viel zu klein und aufgrund der Graustufen, Raster und der Negativschrift entsteht ein doppelter Negativeffekt, der zu Verwirrung bei den Betrachtern führt.
Um überzeugende Folien zu gestalten sollten die folgenden Ratschläge für einen gelungenen Aufbau einer Folie beachtet werden (Franck, 2012): Die Zahl an Informationen sollte überschaubar sein, nicht mehr als sieben Informationen pro Folie und nur maximal 60 % der Folie sollte genutzt werden. Die Folien sollten einer klaren Struktur folgen. Zudem sollte die Schriftgröße nicht unter Punkt 20 sein. Farbe, Schrift und Zeichen sollten sehr überlegt eingesetzt werden. Eine Schriftart sollte ausreichend sein. Außerdem sollte der Einsatz von Bewegung und Ton sehr genau überlegt werden.

 

3. Was präsentiere ich (Analoge Planung)?

Bild 3

Reynolds, 2008

Wenn sie Ideen haben,können sie auch ohne Maschinen viel erreichen. Sobald sie nämlich die Ideen haben, beginnen die Maschinen für sie zu arbeiten…Die meisten Ideen können Sie ziemlich gut mit einem Stock in den Sand zeichnen.“ (Reynolds, 2008).

Es gibt verschiedene Möglichkeiten der Analogen Planung (Reynolds, 2008). Die Tendenz neue Ideen zu sammeln geht weg vom Computer hin zu Papier und Stift. Auch „Post It“ -Notizen mit verschiedenen Ideen an die Wand zu heften und dadurch zu visualisieren kann bei der Ideenfindung einen wertvollen Beitrag leisten. Die Methode des Brainstorming (Engst, 2011) kann zu einer unzensierten, ungegliederten Ideensammlung führen. Auch die klassische „Mind Map“ kann einem dabei unterstützen sich über die verschiedenen Zusammenhänge und Aspekte seines Themas klar zu werden. Alle anderen Einflüsse zu begrenzen, kann helfen sich auf das Wesentliche zu besinnen. Es führt zu einem besseren Fluss des Ideensammelns und Aufschreibens und am Ende zu mehr Klarheit und Konzentration. Letztendlich gelingt es einem somit die Kernaussage seiner Präsentation herauszufiltern und dadurch den Zielen seiner Präsentation näher zu kommen.

Bild 4

Reynolds, 2008

4. Wer ist mein Publikum?

Jedes Publikum ist verschieden und es hat einen großen Einfluss darauf, wie genau man seine Folien und die gesamte Präsentation gestalten sollte. Man muss sich die Frage stellen, welche Inhalte relevant und interessant für das spezifische Publikum sind und mit welchen Methoden man einen guten Zugang zu ihm findet und anschließend sagen kann: „Ja, das war eine gelungene Präsentation!“. Dabei können folgende Fragen helfen (Reynolds, 2008):

  1. Wie viel Zeit habe ich?
  2. Wie sieht der Veranstaltungsort aus?
  3. Zu welcher Tageszeit findet meine Präsentation statt?
  4. Wer sind die Zuhörer?
  5. Welchen Hintergrund haben sie?
  6. Was erwartet das Publikum von mir?
  7. Wovon möchte ich die Zuhörer überzeugen?
  8. Welches visuelle Medium ist unter den gegebenen Umständen und für dieses spezielle Publikum am besten geeignet?
  9. Welches grundsätzliche Ziel verfolge ich mit meinem Vortrag?
  10. Worauf kommt es an?
  11. Die allerwichtigste Frage lautet: Was möchte ich erreichen? Wo wir wieder bei der Kernaussage wären!

 

5. Welche Ziele verfolge ich mit meiner Präsentation?

Das Ziel einer Präsentation ist entscheidend für den Inhalt, den Aufbau und die Gestaltung einer Präsentation (Hesse-Schrader, 2015). Je klarer ein Ziel formuliert wird, desto leichter ist eine realistische Umsetzung. Es können die persönlichen von den sachlichen Zielen unterschieden werden (Hesse-Schrader, 2015). Ein persönliches Ziel kann zum Beispiel sein die Sympathie des Publikums zu gewinnen und es von sich zu überzeugen. Zudem möchte der Präsentierende seine eigenen Kompetenzen demonstrieren und seine Freude und Fähigkeit zu präsentieren zum Ausdruck bringen. Die sachlichen Ziele einer Präsentation sind zum Beispiel bei den Zuhörern Verständnis für die Thematik zu wecken und diese vom vorgetragenen Themengebiet zu überzeugen. Außerdem möchte man bei seinen Zuhörern ein Bewusstsein für eine relevante Problemstellung schärfen. Insgesamt hat die eigene Präsentation die Ziele effektiv zu sein, seine Zuhörer zu unterhalten und ihnen vor allem neue Inhalte zu vermitteln.

 

6. Was ist eine sinnvolle Gliederung einer Präsentation?

Tell your audience what you are going to tell them. Tell them. Then tell them what you told them.” (Engst, 2011). Eine klassische Gliederung einer Präsentation in Anfang, Hauptteil und Abschluss kann auch als AHA-Effekt bezeichnet werden (Hesse-Schrader, 2015). Einleitung und Schluss machen je 1/3 der Gesamtbewertung aus obwohl sie nur je 1/10 Anteil an der Präsentation einnehmen (Frank, 2012). Dadurch wird ersichtlich, welchen Stellenwert eine gelungene Einleitung und Schluss einnehmen. Der Anfang einer Präsentation sollte Aufschluss über den Anlass, den genauen Ablauf und das Ziel der Präsentation geben. Man sollte Interesse an der Präsentation entfachen und durch eine freundliche Begrüßung sowie eine positive Ausstrahlung Sympathie für sich und seine Präsentation herstellen. Ein alternativer Einstieg mit einer spannenden Geschichte, einem passenden Zitat oder einer wahren Begebenheit können die Atmosphäre gleich etwas auflockern (Engst, 2011). Der Hauptteil der Präsentation sollte einer klaren Struktur folgen und so verständlich formuliert sein, dass die Zuhörer ohne Probleme folgen können. Dabei kann der sogenannte „Rote Faden“ eine große Hilfe sein. Er hilft dabei in logischer und verständlicher Art und Weise durch die Präsentation zu führen. Das theoretisch Gesagte kann mit Beispielen aus der Praxis sinnvoll veranschaulicht werden. Der Abschluss einer Präsentation bleibt am ehesten im Gedächtnis und sollte die Anfangsthese beantworten und die wichtigsten Aspekte zusammenfassen. Ein Ausblick in die Zukunft oder eine spannende Diskussion können die Präsentation gut abrunden und zu einem „Happy End“ führen. In diesem Sinne ist es sinnvoll, folgendes Zitat für eine gelungene Präsentation zu beherzigen: „Der erste Eindruck ist entscheidend und der letzte bleibt.

 

7. Womit kann ich präsentieren?

Um noch einmal zur Frage zurückzukommen: „Welches visuelle Medium ist unter den gegebenen Umständen und für dieses spezielle Publikum am besten geeignet?“. Die meisten Menschen assoziieren mit einer Präsentation sofort digitale Präsentationsprogramme wie PowerPoint oder Apple Keynote. Abhängig von der Raumgröße, der Anzahl der Zuhörenden können unterschiedliche Möglichkeiten der Präsentation die geeignete Wahl darstellen. Bei kleinen Gruppen kann ein Flipchart, eine Tafel oder das Whiteboard die sinnvollste Methode sein (Williams, 2010). Auch Wandplakate oder Poster können ein alternatives Medium für Präsentationen darstellen (Engst, 2011).

7.1. Digitale Präsentation

Natürlich gibt es nicht nur PowerPoint als digitale Präsentationssoftware, sondern viele weitere Programme. Nun eine Auflistung der gängigsten Präsentationsprogramme:

PowerPoint         Open Office Impress                Google docs 2

 

Apple Keynote                                                                        prezi

 

7.1.1. PowerPoint – traditionell und strukturiert präsentieren

PowerPoint wurde 1987 erfunden und befindet sich aktuell mit mehr als 500 Millionen Nutzern weltweit an der Spitze der Präsentationsprogramme. Dieses Programm sollte jedoch nicht für das Erstellen von „Folumenten“ missbraucht werden, einer Kombination aus Folien und Dokumenten, ursprünglich dafür gedacht Zeit zu sparen. Denn in Wirklichkeit wird die Kommunikation dadurch reduziert und es entstehen einschläfernde Präsentationen. Verhindert werden kann dies mit der Verwendung von Notizen, Folien und einem Handout (Reynolds, 2008).

Die Notizen sollen als Hilfe und Gedächtnisstütze dienen und sind lediglich für die Augen des Präsentierenden gedacht. Die Folien sollen das Gesagte unterstreichen, indem sie die zentralen Aussagen des Präsentierenden visualisieren. Dabei darf nie vergessen werden, dass die Folien nur der Unterstützung dienen und der Präsentierende im Mittelpunkt steht. Das Handout soll als Zusammenfassung der Präsentation dienen und auch noch 3 Monate später für die Zuhörer verständlich sein.

Pro & Contra PowerPoint:

Pro Contra PP

Vor- und Nachteile  von PowerPoint- eigene Tabelle (Chip, 2014; Mainzer Manager, 2014)

 

7.1.2. Prezi – die zoomende Alternative

Mit Prezi lassen sich dynamische und emotionale Präsentationen gestalten. Seit 2009 ist das plattformunabhängige und web-basierte Programm verfügbar (Chip, 2014;Mainzer Manager, 2014). Die Präsentationen werden auf einem interaktiven Whiteboard erstellt. Dort kann hinein- oder herausgezoomt werden. Bei der kostenlosen Version ist das Prezi-Logo immer sichtbar, die Präsentation ist öffentlich verfügbar und der Speicherplatz ist begrenzt. Bei der „Enjoy Lizenz“ für ca. 60 Euro im Jahr sind die Präsentationen nicht mehr öffentlich sichtbar, das Logo verschwindet und der Speicherplatz ist größer. Die „Pro Lizenz“ für ca. 160 Euro ermöglicht auch das offline Arbeiten an den Präsentationen. Unter folgendem Link ist eine Prezi-Präsentation verfügbar.

Pro & Contra Prezi:

Pro Contra Prezi

Vor- und Nachteile von Prezi- eigene Tabelle (Chip, 2014; Mainzer Manager, 2014)

 

7.1.3. Fazit: Prezi oder PowerPoint?

Zusammenfassend lässt sich sagen, dass es immer abhängig von dem zu präsentierenden Thema, der Zielgruppe und den eigenen Präsentationsskills ist, welches Präsentationsprogramm das Geeignete darstellt (Chip, 2014; Mainzer Manager, 2014). PowerPoint ist ideal für das Präsentieren von größeren, linearen Themen, da diese übersichtlich und verständlich gezeigt werden können. Im Gegensatz dazu bietet Prezi die Möglichkeit überraschend und kreativ zu präsentieren und Zusammenhänge ideal darzustellen.

Ich persönlich finde, Prezi ist eine sehr spannende und innovative Form zu präsentieren. Es gehört auch etwas Mut dazu, aber man kann seine Zuhörer damit definitiv überraschen und von sich und seinem Thema überzeugen. Doch finde ich, dass auch PowerPoint seine Berechtigung hat und wenn man alle Tipps dieses Beitrags befolgt, hat man auch mit PowerPoint die Möglichkeit eine begeisternde Präsentation zu halten. In diesem Sinne, wünsche ich euch viele zukünftig mitreißende Präsentationen, die euch und vor allem euren Zuhörern Spaß bereiten. Ihr alleine habt es in der Hand euer Publikum mit Hilfe von PowerPoint, Prezi oder ähnlichem in den Bann zu ziehen und einen bleibenden Eindruck zu hinterlassen. Denkt immer daran: „Der erste Eindruck ist entscheidend und der letzte bleibt!

 

 

Quellen

Literatur:
• Akhaven-Hezavei, M., Rodatus, A., & Rompel, A. (2014). Handbuch Sekretariat und Office Management. Wiesbaden: Springer Gabler.
• Engst, J. (2011). Präsentieren. Mannheim: Duden Verlag.
• Franck, N. (2012). Gekonnt referieren. Überzeugend präsentieren: Ein Leitfaden für die Geistes- und Sozialwissenschaften. Wiesbaden: Springer VS Verlag für Sozialwissenschaften.
• Reynolds, G. (2008). Zen oder die Kunst der Präsentation. München: Addison-Wesley.
• Williams, R. (2010). Das kleine, feine Präsentationsbuch „für Dich“ : [für alle, die zum ersten Mal präsentieren und es gleich ganz richtig machen wollen]. München: Addison-Wesley.

Elektronische Quellen:
• Chip (2014). Powerpoint vs. Prezi: Ein Vergleich. Abgerufen am 08.12.15 unter http://praxistipps.chip.de/powerpoint-vs-prezi-ein-vergleich_28369
• Hesse-Schrader (2015). Präsentationen strukturieren. Präsentationsziel und Methoden. Abgerufen am 08.12.15 unter https://www.berufsstrategie.de/bewerbung-karriere-soft-skills/praesentation-aha-smart-aida-prinzip.php
• Mainzer Manager (2014). Prezi- das bessere Power Point? Abgerufen am 08.12.15 unter http://mainzer-manager.de/prezi-oder-powerpoint/

 

 

 

 

Veröffentlichen – Was und Wie?

Veröffentlichen – bei diesem Thema stellen sich vor allem die Fragen, was genau man veröffentlichen möchte und welche Form der Veröffentlichung man dafür wählt. Natürlich gibt es zahlreiche vorstellbare Möglichkeiten, Inhalte zu publizieren. Dieser Beitrag wird sich jedoch vor allem auf Forschungsdaten in Form von Journals / Online-Journals und auf nicht wissenschaftliche / private Inhalte durch Blogs, Microblogs und E-Books konzentrieren.

1 Wozu dient die Publikation von Forschungsdaten?

Forschungsdaten sind die primäre Kommunikationsform der Wissenschaft und deren Veröffentlichung kann als Wissensmanagement dieser Domäne gesehen werden. Es erfolgt ein indirekter Austausch über den aktuellen Stand der Forschung und die Betrachtung bestehender Erkenntnisse aus unterschiedlichen Blickwinkeln. Als Grundlage für  zukünftige Forschung stellen Forschungsdaten damit den wesentlichen Teil des wissenschaftlichen Erkenntnisprozesses dar.
Um diese „Nachnutzung“ und Weiterverarbeitung wissenschaftlicher Daten zu gewährleisten, stellt die Deutsche Forschungsgemeinschaft (DGP) beispielsweise die Forderung, dass Daten der durch die DGP geförderten Forschungsprojekte noch zehn Jahre nach deren Erhebung für die Nachnutzung verfügbar sein müssen. Die Organisation für wissenschaftliche Zusammenarbeit und Entwicklung (OECD) betont außerdem, dass Forschungsdaten möglichst nicht nur für Experten, sondern auch für Fachfremde und Laien frei zugänglich gemacht werden sollte. Auf diesen Open Access Ansatz wird später noch genauer eingegangen.

Jedoch ist nicht nur die Zugänglichkeit zu Forschungsdaten eine wichtige Voraussetzung für deren Nachnutzung. Forscher, die eine Publikation anstreben, müssen sich deshalb an die vom jeweiligen Journal vorgegebenen formalen und stilistischen Vorlagen halten. Dabei können beispielsweise die Zitationsregeln der American Psychological Association (APA) eine zentrale Vorgabe darstellen. Zumeist sollte die Publikation außerdem dem folgenden uns bekannten Aufbau folgen:
Abstract (Zusammenfassung der Studie), Einführung und Theorie, Methodik, Darstellung der Ergebnisse, Diskussion der Ergebnisse und Ausblick.
Wichtig für die Ermöglichung einer sinnvollen Nachnutzung der Daten ist es jedoch vor allem, die Replizierbarkeit zu gewährleisten. Damit ist gemeint, dass die Methodik transparent dargestellt wird, alle methodischen Entscheidungen und Erklärungen der Ergebnisse klar nachzuvollziehen sind und die Publikation einem einfachen, eindeutigen und verständlichen Schreibstil folgt.

2  Der Peer Rewiew Prozess – Qualitätssicherung in der Wissenschaft

Möchte man in einem Journal oder Online-Journal publiziert werden, so muss man sich zunächst dem sogenannten Peer Review Prozess stellen. Hier zunächst eine kurze Definition:

“[Peer review is] the critical assessment of manuscripts submitted to journals by experts who are not part of the editorial staff.”

(International Committee of Medical Journal Editors, zit. nach Voight & Hoogenboom, 2012)

Peer Reviews werden seit den 50er Jahren vermehrt eingesetzt. Grund hierfür ist vor allem der extreme Anstieg der Anzahl an Einreichungen, wodurch eine starke Selektion vonnöten ist. Bedingt ist dies vor allem durch die vermehrte Informationsflut unserer Zeit sowie die immer schnellere Weiterentwicklung im technologischen Bereich. Expertenwissen wird demzufolge immer spezieller und die Herausgeber von Journals sind nicht mehr in der Lage, alle Artikel selbst zu prüfen. Stattdessen werden Peers, also Experten, die im selben Bereich forschen, hinzugezogen.
Wesentliches Ziel einer Peer Review ist die Qualitätssicherung wissenschaftlicher Publikationen. Dabei wird vor allem der wissenschaftliche Nutzen der Einreichung geprüft: Ist die Untersuchung valide und reliabel? Ist sie durch klare Dastellung der Methodik replizierbar?  Wurden die Ergebnisse sinnvoll, einfach und verständlich dargestellt und interpretiert? Es wird außerdem darauf Wert gelegt, dass die Ergebnisse nicht zu spekulativ sind, gleichzeitig aber Raum für zukünftige Forschung lassen. Des Weiteren erfolgt eine Prüfung auf Rechtswidrigkeit sowie auf ethische Bedenken bei der Durchführung der Untersuchung.

Wie komplex und langwierig ein solcher Peer Review Prozess sein kann, soll die folgende Grafik verdeutlichen:

Peer Review

Abbildung 1: Ablauf einer Peer Review (Voight & Hoogenbloom,2012)

Im ersten Schritt reicht der Autor seinen Artikel ein und erhält im Anschluss Nachricht über dessen Eingang beim Journal. Dies erfolgt überlichweise über ein Online-System. Nun wird der Artikel zunächst von den Herausgebern gelesen und geprüft, ob dieser inhaltlich zum Journal passt. An diesem Punkt kann es bereits zur Ablehnung des Artikels kommen. „Besteht“ der Artikel jedoch vor den Herausgebern, so beginnt der eigentliche Peer Review Prozess. Mindestens zwei externe Reviewer prüfen den Artikel unter anderem auf die bereits beschriebenen Kritieren. Hilfsmittel kann dabei eine Checkliste sein, die zum Beispiel beim International Journal of Sports Physical Therapy so aussieht:

Checkliste

Abbildung 2: Auszug Checkliste für Reviewer des International Journal of Sports Physical Therapy (Voight & Hoogenbloom, 2012)

Im nächsten Schritt gehen die Peer Reviews an die Herausgeber zurück und werden auf ihre Qualität geprüft. Es ist möglich, dass die Reviewer ihre Einschätzungen noch einmal überabeiten müssen. Ist dies nicht der Fall, so gibt es drei verschiedene Möglichkeiten des weiteren Ablaufes. Der Artikel wird entweder abgelehnt, der Autor muss den Artikel nach Vorgaben der Peer Review überarbeiten, oder der Artikel wird angenommen und publiziert. Letzteres geschieht nur in den seltensten Fällen. Zumeist wird der Autor dazu angehalten, den Artikel noch einmal zu überarbeiten. Im Anschluss daran fängt der bisher beschriebene Ablauf wieder von neuem an: Die Herausgeber prüfen zunächst den überarbeiteten Artikel und geben diesen dann an die Reviewer weiter. Durch das dargestellte wiederholte Durchlaufen des Peer Review Prozesses kann sich dieser sehr langwierig gestalten. Im Ideallfall vergehen drei bis sechs Monate, bis ein Artikel schlussendlich publiziert werden kann. Die Veröffentlichung kann sich in Einzelfällen jedoch auch bis zu drei Jahre hinziehen.

2.1 Formen von Peer Reviews

Peer Reviews können in unterschiedlicher Form durchgeführt werden. Zunächst gibt es die sogenannten Single-Blind Reviews, bei denen die Identität des Autors bekannt ist, dieser jedoch den Namen des Reviewers nicht erfährt. Aufgrund des Namens, der zugehörigen Institution oder der Herkunft des Autors können sich dabei allerdings Urteilsverzerrungen ergeben. Im Gegensatz dazu erscheinen Double-Blind Reviews wesentlich fairer:  Sowohl die Identität des Autors als auch die des Reviewers bleiben geheim. Diese Methode ist die am häufigsten eingesetzte Form der Peer Review. Problematisch bei beiden Formen bleibt die Anonymität des Reviewers, der sich dahinter verstecken kann und womöglich eine weniger konstruktive Bewertung einreicht als er sollte oder könnte. Dieser Einschränkung soll die Open Peer Review entgegenwirken, bei der es keine Anonymität zwischen Autor und Reviewer gibt.
Eine weitere Form, die sich infolge der Open Access Idee –  der schnelleren und freien Zugänglichkeit von Forschungsdaten – entwickelt hat, ist die Public Peer Review. Dabei werden Artikel nach einer Vorauswahl als sogenanntes Working Paper direkt auf einer Online Plattform veröffentlicht. Innerhalb eines Zeitraums von acht Wochen besteht nun ein interaktiver Austausch zwischen Autor und Peers, bei dem alle Kritiken und Kommentare der Peers ebenfalls veröffentlicht werden. Im Anschluss folgt der Ablauf der klassischen Peer Review. Vorteile dieser Methode sind die schnellere Zugänglichkeit zu neuen Daten, der Einbezug zahlreicher Meinungen in den Review Prozess und die schnellere Erkennung von Mängeln. Insgesamt soll dadurch der Peer Review Prozess schneller gehen und der publizierte Artikel am Ende von höherer Qualität sein als bei der traditionellen Peer Review.

2.2 Kritik am Peer Review Prozess

Abgesehen davon, dass ein Peer Review Prozess eine langwierige und komplexe Angelegenheit für den Autor sein kann, werden im Artikel von Grainger (2007) einige weitere Kritikpunkte aus der Sicht eines praktizierenden Wissenschaftlers dargestellt. Zunächst wird beschrieben, dass Studenten – also die zukünftigen Reviewer – von Beginn ihres Studiums an instruiert werden, Artikel extrem kritisch zu betrachten und selbst kleinste Mängel zu finden. Dadurch kommt es zu überkritischen Peer Reviews und wichtige Daten werden nicht veröffentlicht. Grainger (2007) betont, dass nicht an jeden wissenschaftlichen Artikel der Anspruch gestellt werden kann, eindeutige Daten zu zentralen Konstrukten hervorzubringen.
Zudem wird kritisiert, dass viele Autoren sich selbst nicht als Reviewer zur Verfügung stellen. Da jeder eingereichte Artikel jedoch einen enormen zeitlichen Aufwand und den Einsatz von mindestens drei Personen (einem Herausgeber und zwei Reviewern) bedeutet, empfiehlt Grainger (2007) den Autoren, pro Publikation selbst drei Peer Reviews durchzuführen.
Hinzu kommt, dass Peer Reviews hauptsächlich von Wissenschaftlern, nicht aber von Praktikern generiert werden. Da viele Forschungsdaten jedoch einen starken Praxisbezug haben, sollten auch die Personen Publikationen bewerten, die die Ergebnisse zukünftig adäquat in die Praxis umsetzen müssen.

3 Publikationsarten

3.1 Open Access von Forschungsdaten

Mittlerweile sind zahlreiche Forschungsdaten frei online zugänglich. Ein Beispiel hierfür ist die Plattform Directory of Open Access Journals, über die sich über 10 000 Online Journals finden lassen. Neben klassischen Filterfunktionen wie Autor, Publikationsjahr und Stichwortsuche kann man bei der Suche nach Artikeln auch nach unterschiedlichen Peer Review Formen filtern, um die Qualität der Publikationen einzuschätzen. Im Grunde genommen ist die Qualitätskontrolle bei Open Access Daten nur schwer umzusetzen, jedoch finden sich im Internet einige von Wissenschaftlern aufgestellte Black Lists mit Journals, die als nicht seriös gelten und denen man seine Forschungsdaten nicht überlassen sollte.
Eine anerkannte Open Access Plattform ist ScienceDirect. Dort können Forschungsdaten in unterschiedlichen Formen bereitgestellt werden. Die erste Möglichkeit ist das Forschungsdaten-Repositorium. Dabei werden ausgewertete Daten unabhängig von deren Interpretation veröffentlicht. Ein solches Repositorium ermöglicht eine sofortige Überprüfung sowie Nachnutzung der Ergebnisse. Eine weitere Option ist die Veröffentlichung mit textueller Dokumentation. Dabei wird das Repositorium um die Darstellung der Methodik zur Erhebung der Daten erweitert. Sinn und Zweck ist auch hier die Überprüfung und Replizierbarkeit der Untersuchungen. Die letzte Möglichkeit besteht in der Interpretativen Publikation. Damit ist ein klassischer wissenschaftlicher Artikel inklusive der Interpretation und Bewertung der Ergebnisse gemeint.
Jeder Datensatz erhält dabei einen individuellen Zuordnungscode, wie zum Beispiel den Digital Object Identifier (doi). Dadurch wird gewährleistet, dass der Datensatz schnell zugeordnet, wiedergefunden und in anderen Artikeln richtig zitiert werden kann.

3.2 E-Books

Weg von wissenschaftlichen Forschungsdaten – hin zu nicht wissenschaftlichen und privaten Inhalten. Eine Möglichkeit zur Veröffentlichung, die wirklich jeder nutzen kann, ist das E-Book. Amazon bietet diese Publikationsart besonders einfach nutzbar an. Beim Amazon Kindle Direct Publishing muss die betreffende Datei lediglich in HTML-Format hochgeladen und ein Preis festgelegt werden. Wählt man diesen zwischen 2,99 und 9,99 Euro, so erhält man als Autor 70 % der Verkaufsgewinne. Beim Hochladen verpflichtet man sich, die Urheberrechte für die Inhalte des E-Books selbst innezuhaben. Amazon grenzt sich damit von jeglicher Verantwortlichkeit ab.

3.3 Blogs

Wir befinden uns gerade auf einem solchen:

wpdelogoDie Blog Plattform WordPress ist das weltweit meistgenutzte Content Management System, denn sie wird sowohl von Privatleuten als auch von Firmen und sogar Zeitungen genutzt. WordPress ist kostenlos, mobil und für jeden Browser nutzbar. Publiziert werden können Texte, Videos, Bilder, Audiodateien und Links. Durch den einfach zu bedienenden Beitragseditor, der dem Microsoft Office Word Programm ähnelt, ist WordPress auch für Personen ohne Programmierkenntnisse nutzbar – der Beitrag wird beim Erstellen so angezeigt, wie er im Anschluss auch publiziert wird (Abbildung 3). Die Vorschau-Funktion ermöglicht es, dies zu überprüfen.

WordPress-Editor

Abbildung 3: WordPress Beitragseditor (Google Bilder, 2015)

Es besteht außerdem die Möglichkeit, andere Blogs zu abonnieren. Deren Beiträge erscheinen dann auf der persönlichen Pinnwand des Abonnenten.  WordPress kann durch die Möglichkeit der individuellen Rechtevergabe entweder für die Erstellung eines eigenen oder für die Mitarbeit an einem bereits bestehenden Blog genutzt werden. Mit der Festlegung eines Passwortes kann man die Plattform auch für private Inhalte, wie zum Beispiel ein Tagebuch, nutzen. WordPress kann außerdem mit anderen Social Networks verbunden werden.

3.4 Microblogs

1-logoDer Microblog Squirrly ist ein Plug-in, welches für die Erstellung und Optimierung von Blogposts, unter anderem auch auf der Plattform WordPress, genutzt werden kann. Eingebettet in den Beitragseditor erleichtert Squirrly das Auffinden von Fotos, Tweets, Wikipedia Einträgen und anderen Blogposts zum gewünschten Thema. Die online gefundenen Inhalte können im Anschluss direkt in den eigenen Blogbeitrag eingefügt werden. Vorteil dieser Anwendung ist vor allem die hohe Effizienz durch die parallele Nutzung mit dem Beitragseditor eines Blogs, welches noch einmal in folgenden Grafiken verdeutlicht wird:

Squirrly1

Abbildung 4: Squirrly eingebettet in den WordPress Beitragseditor (YouTube, 2015)

Sqirrly2

Abbildung 5: Direkte Nutzung themenverwandter Artikel mithilfe von Squirrly (YouTube, 2015)

Tumblr_logoEin weiterer Microblog ist tumblr. Auf dieser Plattform finden sich über 264 Millionen verschiedene Blogs. Im Vergleich zum Blog WordPress gibt es hier eine zusätzliche Chatfunktion und eine Reposting-Funktion, das heißt, man teilt auf der eigenen Pinnwand Blogeinträge anderer Autoren – ähnlich wie bei Facebook. Genau wie bei WordPress kann man hier ebenfalls andere Blogger abonnieren.

Fazit

Es wird deutlich, dass die Qualitätskontrolle publizierter Inhalte im Besonderen bei Forschungsdaten wichtig ist, da diese der Nachnutzung und dem Erkenntnisgewinn der Wissenschaft dienen sollen. Zwischen Peer Reviews und dem Open Access Ansatz bleibt jedoch die Frage, wie es möglich werden kann, Qualität zu püfen, ohne dass Wissenschaftler ihre Autonomie beim Erheben und Darstellen der Daten verlieren – und wie gleichzeitig verhindert werden kann, dass Vertrauen in fehlerhafte Daten gesetzt wird. Damit erscheint der Peer Review Prozess in jedem Falle noch verbesserungswürdig.
In Bezug auf frei zugängliche, nicht wissenschaftlichen Inhalte trägt der Verbraucher natürlich selbst die Verantwortung dafür, ob diese ihm glaubwürdig erscheinen oder nicht – wie die Praxisbeispiele gezeigt haben, sind der Fantasie für die Veröffentlichung eigener Inhalte keine Grenzen gesetzt.

Quellen

Butler, D. (2013). Investigating journals: The dark side of publishing. Nature International Weekly Journal of Science. Abgerufen von http://www.nature.com/news/investigating-journals-the-dark-side-of-publishing-1.12666

Dallmeier-Tiessen, S. (2011). Strategien bei der Veröffentlichung von Forschungsdaten. Working Paper Series des Rates für Sozial- und Wirtschaftsdaten, 173, 1-14.

Directory of Open Access Journals (2015). Abgerufen von https://doaj.org/about

Fleßa, S. (o. J.). Kleine Schreibschule für Veröffentlichungen in wissenschaftlichen Zeitschriften. Abgerufen von http://www.rsf.uni-greifswald.de/fileadmin/mediapool/lehrstuehle/flessa/Kleine_Schreibschule.pdf

Grainger, D. W. (2007). Peer review as professional responsibility: A quality control system only as good as the participants. Biomaterials, 28, 5199-5203. doi:10.1016/j.biomaterials.2007.07.004

Muresan, F. (2013). Squirrly SEO- WordPress SEO Plugin. Abgerufen von https://www.youtube.com/watch?v=HYTcdLXNhhw

Tischer, W. (2011). Amazon Kindle: 10 Tipps wie Sie Ihr eigenes E-Book veröffentlichen und 70 % Autorenhonorar bekommen. Abgerufen von http://www.literaturcafe.de/amazon-kindle-10-tipps-wie-sie-ihr-eigenes-e-book-veroeffentlichen/

Tumblr (2015). Abgerufen von https://www.tumblr.com/

Pöschl, U. (2010). Interactive open access publishing and public peer review: The effectiveness of transparency and self-regulation in scientific quality assurance. International Federation of Library Associations and Institutions, 36, 40-46.

Voight, M.L., & Hoogendoom, B. J. (2012). Publishing your work in a journal: Understanding the peer review process. The International Journal of Sports Physical Therapy, 7, 452-460.

Walbot, V. (2009). Are we training pit bulls to review our manuscripts? Journal of Biology, 8, 24.1-24.2.

WordPress (2015). WordPress im Einsatz. Abgerufen von http://wpde.org/funktionen/