web 2.0 & enterprise 2 - se.uni-hannover.de · 1 web 2.0 & enterprise 2.0 wladimir exner...

13
1 Web 2.0 & Enterprise 2.0 Wladimir Exner [email protected] Abstract: Seit mehr als 5 Jahre begegnet uns der Begriff „Web 2.0“ in allen Medien. Heutzutage kann man mit Sicherheit sagen, dass fast jeder Mensch den Begriff schon mal gehört bzw. darüber geredet hat, aber es fällt immer noch einem oder anderem von uns schwer, die Definition dieses Schlagwortes zu erklären. Das Problem liegt daran, dass der Begriff, und dafür wird er stark kritisiert, sehr schwammig ist und es keine DIN ISO-Definition dafür gibt, mit anderen Worten gibt es keine Definition, die eine komplett zufriedenstellende Antwort auf die Frage „Was ist Web 2.0 ?“ liefert. Dieser Arbeit greift die beschriebene Problematik auf und zeigt was sich hinter dem mysteriösen Begriff „Web 2.0“ versteckt. 1 Einführung „Vague, but exciting“, so lautete die erste Reaktion, die Tim Berners-Lee von seinem Chef, Mike Sendall, erhielt, als er ihm im Jahr 1989 seinen Vorschlag für ein Informationsmanagement-System vorgestellt hat. In diesem Vorschlag ging es darum, ein Informationsnetz zu entwickeln, um das herrschende Informationschaos an dem Forschungszentrum CERN zu bändigen und aufbauend auf dem bereits bestehenden Internet den weltweiten Datenaustausch unter Forschern zu ermöglichen. Trotz der Zurückhaltung seiner Vorgesetzten bekam Berners-Lee, der als Informatiker an dem Kernforschungszentrum CERN im Genf tätig war, grünes Licht für eine Umsetzung seiner Idee des World Wide Web (WWW). Der Entwurf für das WWW enthielt drei Kernpunkte [1]: HTML (Hypertext Markup Language): Seitenbeschreibungssprache zur Strukturierung von Inhalten wie Texten, Bildern und Hyperlinks in Dokumenten HTTP (Hypertext Transfer Protocol): Protokoll zur Übertragung von Daten über ein Netzwerk URI (Universal Resource Identifier): eindeutige Internetadressen, um die Dokumente im Netz auffinden zu können Basierend auf diesen drei Grundlagen des WWW entwickelte Berners-Lee das erste Web- Anzeigeprogramm (WorldWideWeb) und den ersten Webserver (NeXTSTEP). Am Weihnachtsabend 1990 richtete er auf seinem NeXT-Rechner den Webserver info.cen.ch ein und stellte somit die erste Webseite der Welt online. Damit wurde den Grundstein für das neue Medium gelegt und das Internet aus dem Computerraum befreit. [2] Allerdings brachte der erste Browser dem Web keine große Popularität, da die Nutzung des Browsers nur auf wenige Wissenschaftler beschränkt war. Der wahrscheinlich wichtigste Grund für die wachsende Verbreitung des Web war die Entscheidung im April 1993 das Web für die Öffentlichkeit lizenzfrei und kostenlos zur Verfügung zu stellen. Dadurch konnte im Prinzip jeder seine eigene Anwendung entwickeln und anderen zugänglich manchen. So wurde noch in selbem Jahr ein erster graphischer Browser „Mosaic“, der Vorläufer des Netscape, vom Marc Andreessen entwickelt, mit dem auch ungeschulte Laien auf das Internet zugreifen konnten. Mit diesem Browser hat Marc Andreessen eine explosionsartige Steigerung der Popularität des Webs ausgelöst.

Upload: others

Post on 09-Oct-2019

21 views

Category:

Documents


0 download

TRANSCRIPT

1

Web 2.0 & Enterprise 2.0

Wladimir Exner

[email protected]

Abstract: Seit mehr als 5 Jahre begegnet uns der Begriff „Web 2.0“ in allen Medien. Heutzutage kann man mit Sicherheit sagen, dass fast jeder Mensch den Begriff schon mal gehört bzw. darüber geredet hat, aber es fällt immer noch einem oder anderem von uns schwer, die Definition dieses Schlagwortes zu erklären. Das Problem liegt daran, dass der Begriff, und dafür wird er stark kritisiert, sehr schwammig ist und es keine DIN ISO-Definition dafür gibt, mit anderen Worten gibt es keine Definition, die eine komplett zufriedenstellende Antwort auf die Frage „Was ist Web 2.0 ?“ liefert. Dieser Arbeit greift die beschriebene Problematik auf und zeigt was sich hinter dem mysteriösen Begriff „Web 2.0“ versteckt.

1 Einführung

„Vague, but exciting“, so lautete die erste Reaktion, die Tim Berners-Lee von seinem Chef, Mike Sendall, erhielt, als er ihm im Jahr 1989 seinen Vorschlag für ein Informationsmanagement-System vorgestellt hat. In diesem Vorschlag ging es darum, ein Informationsnetz zu entwickeln, um das herrschende Informationschaos an dem Forschungszentrum CERN zu bändigen und aufbauend auf dem bereits bestehenden Internet den weltweiten Datenaustausch unter Forschern zu ermöglichen.

Trotz der Zurückhaltung seiner Vorgesetzten bekam Berners-Lee, der als Informatiker an dem Kernforschungszentrum CERN im Genf tätig war, grünes Licht für eine Umsetzung seiner Idee des World Wide Web (WWW). Der Entwurf für das WWW enthielt drei Kernpunkte [1]:

• HTML (Hypertext Markup Language): Seitenbeschreibungssprache zur Strukturierung von Inhalten wie Texten, Bildern und Hyperlinks in Dokumenten

• HTTP (Hypertext Transfer Protocol): Protokoll zur Übertragung von Daten über ein Netzwerk

• URI (Universal Resource Identifier): eindeutige Internetadressen, um die Dokumente im Netz auffinden zu können

Basierend auf diesen drei Grundlagen des WWW entwickelte Berners-Lee das erste Web-Anzeigeprogramm (WorldWideWeb) und den ersten Webserver (NeXTSTEP). Am Weihnachtsabend 1990 richtete er auf seinem NeXT-Rechner den Webserver info.cen.ch ein und stellte somit die erste Webseite der Welt online. Damit wurde den Grundstein für das neue Medium gelegt und das Internet aus dem Computerraum befreit. [2]

Allerdings brachte der erste Browser dem Web keine große Popularität, da die Nutzung des Browsers nur auf wenige Wissenschaftler beschränkt war. Der wahrscheinlich wichtigste Grund für die wachsende Verbreitung des Web war die Entscheidung im April 1993 das Web für die Öffentlichkeit lizenzfrei und kostenlos zur Verfügung zu stellen. Dadurch konnte im Prinzip jeder seine eigene Anwendung entwickeln und anderen zugänglich manchen. So wurde noch in selbem Jahr ein erster graphischer Browser „Mosaic“, der Vorläufer des Netscape, vom Marc Andreessen entwickelt, mit dem auch ungeschulte Laien auf das Internet zugreifen konnten. Mit diesem Browser hat Marc Andreessen eine explosionsartige Steigerung der Popularität des Webs ausgelöst.

2

Einige Monate später, nachdem Mark Andreessen aus dem Projekt Mosaic ausgestiegen war und eine neue Firma namens „Netscape“ gegründet hat, kam ein neuer Browser „Netscape Navigator“ zur Welt. Ab dann beschleunigte sich das Web-Wachstum auf unvorstellbare Weise. Am Ende 1994 gab es weltweit bereits 10000 Webserver und die Zahl der User im Web erreichte die 10 Millionen Marke.

Das Jahr 1995 wurde das große Jahr des Internets. Die Internet-Giganten wie Ebay, Yahoo, oder Amazon wurden gegründet, die Zahl der installierten Webserver durchbrach die Millionengrenze, das Web überholte sogar das bis dahin konkurrenzlos führende FTP als Dienst mit dem meisten Traffic.

Netscape und einige andere Internet-Firmen gingen an die Börse, was auch einen phänomenalen Erfolg brachte. Schon in kürzester Zeit wurde aus diesen Firmen ein millionen- und sogar milliardenschweres Unternehmen. Die Welle der Euphorie brach aus. Beflügelt von dieser Euphorie und der Gedanke über schnelles Geld begannen zigtausende Privatanwender eigene Webseiten zu erstellen. Fast alle Firmen, Organisationen und Regierungen drängten nach und nach mit eigenen Angeboten ins Web. Geblendet von scheinbar sicheren und vor allem schnellen Erfolgen anderer investieren viele Unternehmen riesige Summen in mehr oder weniger erfolgversprechende Projekte und verkauften diese Investitionen teilweise an noch höher bietende Interessenten weiter. Vor allem wurde sinnlos viel Geld in die Werbeagenturen geschmissen, die dann meist unbrauchbaren Dinge produziert haben, so dass es dazu geführt hat, dass die Unternehmen auf Agenturkosten Pleite gegangen sind. Und so wiederholte sich der Prozess im Laufe der Zeit so lange bis die Investitionen den reellen Wert überstiegen haben. [5]

Viele Börsenexperten hielten die Aktienkurse der Internet-Firmen für überbewertet, aber in der Euphorie-Stimmung hat niemand solche Prognose bzw. Warnungen ernst genommen. Die so genannte „Dotcom-Blase“ wurde immer weiter ausgedehnt. Doch als die erhofften Profite dauerhaft ausblieben, versuchten die Investoren die in die zahlreichen Projekte investierten Gelder wieder zu bekommen. Der Ruf der scheinbar risikolosen Investitionen in die Internetbranche war ramponiert und somit die Situation an der Börse drastisch verschlimmert.

Im Jahr 2000 kam es zu einem Börsencrash und die Dotcom-Blase platzte endgültig. Nur die wenigsten Unternehmen wie Amazon, Ebay und Google konnten den Börsencrash überleben. Die meisten anderen, kleineren Unternehmen gingen in Insolvenz und von den goldenen Visionen blieb nur die Pleite.

Abbildung 1: Nasdaq Composite 1994-2004 [6]

3

Das Scheitern der fragwürdigen Geschäftsmodelle der New Economy weckte Skepsis und Missvertrauen vieler Unternehmen und Menschen in Web. Das Wachstum des Webs hat sich zwar verlangsamt, die Entwicklung neuer Standards wie XHTML oder CSS blieb aber konstant. Diese Entwicklungen haben den Grundstein für das gelegt, was ab Jahr 2004 unter dem Begriff „Web 2.0“ für ein wiedererwachtes Interesse und Begeisterung am Web sorgte.

Die in diesem Kapitel vorgestellte kurze Geschichte des Webs sollte als Basis zum Verständnis dessen dienen, wie es zu der Entstehung des Schlagwortes „Web 2.0“ kam.

2 Web 2.0

2.1 „Von der Dotcom-Blase zum Web 2.0 ?“

Als Tim Berners-Lee das World Wide Web erfunden hat, hat er eine konkrete Vision gehabt, dass man sowohl weltweit publizieren kann aber eben auch nicht nur lesen sondern vor allem schreiben kann. Es sollte möglich sein die Inhalte leicht publizieren zu können und genau so leicht zu lesen.

Zum Zeitpunkt der New Economy, d.h. als die Kommerzialisierung kam, war es aber anderes. Die Firmen haben das Web mit eigenen Angeboten überflutet sodass die Nutzer, die sich nicht mit der neuen Technologie auskannten, zur Konsumenten wurden. Das Web hat sich zu Fernsehern degradiert wo die Firmen die Regie gemacht haben.

Heute kann man mit Sicherheit sagen, dass das Beste was dem Internet damals passieren konnte, war das Ende des New Economy. Nicht nur die Tatsache, dass sich alles Hype auf Hype getürmt hat, ohne dass es substanziell irgendwas neues dazu gekommen ist, sondern auch das Fehlen am Verständnis der Benutzer, an der Bandbreite und an den damaligen technischen Möglichkeiten, war die Nadel die die Dotcom-Blase zu platzen brachte.

Aber bestand die Dotcom-Blase wirklich nur aus heißer Luft? Denn neben den geplatzten Träumen und Visionen, gab es auch Dienste, die es geschafft haben, den Einzug in unseren Alltag zu finden und ohne die man sich heute das Web nicht mehr vorstellen könnte, wie z.B. die Email. Viele Ideen die damals gescheitert sind, kommen nun wieder und diesmal von Erfolg gekrönt. So z.B. die Vision vom Publizieren im Web. Es wurden zigtausend privaten Homepages ins Netz gestellt und dann nicht mehr aktualisiert und gepflegt, weil es zu viel Zeit und Geld gekostet hat. Im Gegensatz dazu schreiben heute viele Internetnutzer Blogs, die in kürzeste Zeit an Popularität gewonnen haben.

Das Web ist nicht mehr das, was man aus der Zeit der New Economy kennt. Während Investoren noch ihre Wunden heilen, hat das Web unbemerkt einen Stand erreicht, der einige der früheren Versprechen einlöst und manche der Defizite kompensiert. Die Internetfirmen verdienen Geld. Die Beliebtheit des Webs ist so groß geworden, dass man sogar von einer neuen Euphorie spricht.

4

Der Grund für diesen neuen Boom lässt sich dadurch erklären, dass sich mit der Zeit nicht nur die angebotenen Dienste zum Positiven entwickelt haben, sondern auch die Zugangsfaktoren, wie Geschwindigkeit und Kosten, für die Internetnutzer, so dass das Web von breiten Schichten der Bevölkerung regelmäßig benutzt und als Massenmedium akzeptiert wird. Es ist auch für viele Investoren wieder attraktiver geworden in Web zu investieren, weil im Gegensatz zu New Economy Zeiten immer mehr Menschen über Webseiten erreicht und informiert werden können. Man spricht auch von einer neue Ära des Webs, die den Name „Web 2.0“ hat.

2.2 Was ist eigentlich Web 2.0?

Der Begriff „Web 2.0“ ist in einer Brainstorming-Sitzung zwischen Tim O’Reilly und MediaLive International im Frühjahr 2004 im Vorfeld einer Konferenz entstanden, welche sich mit den Veränderungen und Weiterentwicklungen im Internet beschäftigte. Man hat festgestellt, dass die Firmen, die das Platzen der Dotcom-Blase überlebt haben und bis heute noch erfolgreich sind, einige wichtige Dinge gemeinsam zu haben scheinen. Und darum ging es bei dieser Konferenz, die Prinzipien und Gemeinsamkeiten zu identifizieren, welche die Firmen teilen.

„Könnte es sein, dass der Dot-Com-Kollaps einen derartigen Wendepunkt markiert hatte dass man diese Dinge nun mit einem Schlagwort wie „Web 2.0“ bezeichnen durfte? Wir einigten uns darauf und damit war die „Web 2.0 Konferenz“ geboren“. [7]

Bei diesem Brainstorming wurde versucht die Bedeutung von „Web 2.0“ anhand der folgenden Bespielen formuliert [7]:

Die richtige Popularität brachte diesem Schlagwort erst der Artikel mit dem Titel „What is Web 2.0“, der am 30. September 2005 von Tim O’Reilly erschienen ist.

WEB  1.0  

DoubleClick  

Ofoto    

Akamai  

mp3.com  

Britannica  Online  

Persönliche  Webseiten  

Spekula>on  mit  Domain  Namen  

Seitenaufrufe  

Extrak>on  miBels  Screen  Scraping  

Veröffentlichung  

Content  Management  Systeme  

Taxonomie(Verzeichnisse)    

Feststehend("s>ckiness")      

WEB  2.0  

Google  AdSence  

Flickr    

BitTorrent    

Napster    

Wikipedia    

Blogs    

Suchmaschinen-­‐Op>mierung    

"cost  per  click"    

Web  Services    

Beteiligung    

Wikis  

"Folksonomy(Tagging)"    

Zusammenwachsen("syndica>on")      

5

In diesem Artikel führt er mit dem Untertitel „Design Patterns and Business Models für the Next Generation of Software“ sieben Prinzipien auf, welche für das Web 2.0 charakteristisch sind:

• Das Web als Plattform • Kollektive Intelligenz • Daten als „Intel inside“ • Software ohne Lebenszyklus • Lightweight Programming Models • Software über Gerätegrenzen hinweg • Benutzerführung (Rich User Experiences)

Im Folgenden wird auf die hier genannten sieben Prinzipien eingegangen und deren wichtige Eigenschaften kurz erläutert [7].

Das Web als Plattform

Dieses Prinzip ist im Grunde nicht neu, so hatte Netscape schon zu New Economy-Zeiten bereits versucht, dieses Prinzip umzusetzen. Darunter wurde eine Abwendung von dem bisherigen Ansatz gemeint, bei dem eine Software gekauft und lokal auf dem Rechner installiert wird. Laut Netscape’s Vision sollten Benutzer mit einem „Webtop“ als Desktop-Ersatz arbeiten und die Anwendungen aus dem Internet herunterladen. Da die Anwendungen aber auf den Servern lagen, die mit einer teueren Netscape-Server-Software betrieben wurden, scheiterte die Vision.

Als weitere Bespiele für die Firmen die schon damals Web als Plattform genutzt haben, sind DoubleClick und Akamai zu nennen. Die beiden Firmen boten bereits früh ihre Dienste als Service und nicht als Software an, und somit gelten als die Pioniere des Web 2.0. Akamai ist ein Anbieter für die Auslieferung und Beschleunigung von Inhalten über das Internet. DoubleClick bietet Online-Marketing-Lösungen, wie z.B. Banner- oder Suchmaschinen-Werbung. Allerdings entsprechen beide Internetfirmen laut O’Reilly nicht der Definition von Web 2.0, da sie den sogenannten „Long Tail“1 nicht berücksichtigen [7] und zum anderen, weil es bei beiden nicht um die Beteiligung sondern um die Verbreitung von Inhalten geht.

Im Gegensatz dazu bezeichnet O’Reilly Google und BitTorrent als wahre Vertreter des Web 2.0. Google ist eine reine Webanwendung, für die man einen Browser, also eine Desktop-Anwendung braucht, um sie zu benutzen. BitTorrent hingegen ist selbst eine Desktop-Anwendung, die das Web nutzt. Beide nutzen das Web als Plattform, beide vertreten das Long Tail. Google bietet einen kostenlosen Dienst an, der regelmäßig verbessert wird und vor allem für jedermann einfach und direkt nutzbar ist. BitTorrent konzentriert sich auf die breite Masse, bei der jeder Nutzer sowohl Client als auch Server ist. Das Prinzip ist einfach, je mehr Nutzer einen Dienst nutzen, desto besser ist er, d.h. um so mehr Ressourcen wird von jedem Nutzer zum Netzwerk beigetragen.

Zusammenfassend lässt sich sagen, dass um die Anwendungen, die das Web als Plattform nutzen, als Anwendungen des Web 2.0 zu klassifizieren, müssen sie sich nicht nur die schmale Spitze, sondern auch die breite Masse einbeziehen und dabei sollte nicht nur um die Konsum vom Inhalten gehen, sondern um die Partizipation.

1 Long Tail ist eine Theorie vom Chris Anderson, nach der ein Anbieter im Internet durch große Anzahl an Nischenprodukten Gewinn machen kann. Er zeigte diesen Effekt anhand der Verkaufsstatistik des amerikanischen Online-Musikdiensta Rhapsody, bei der eine große Anzahl wenig gefragter Produkten mehr Umsatz erzielte als wenige Bestseller. Quelle: http://de.wikipedia.org/wiki/The_Long_Tail

6

Kollektive Intelligenz

„Das Ganze ist mehr als die Summe seiner Teile“

Das Zitat vom griechischen Philosoph Aristoteles spiegelt die Idee von Kollektive Intelligenz wieder. Als gutes Beispiel dafür dient die Wikipedia, auf der ein beliebiger Nutzer sein Wissen niederschreiben kann bzw. darf und ein anderer beliebiger Nutzer diesen Artikel ändern darf. Jeder Nutzer steuert sein eigenes Wissen bei und als Resultat entsteht eine für jedermann verfügbare Enzyklopädie als Ganzes. Die Nutzer stellen die Intelligenz des Netzes dar. Sie kommunizieren, organisieren, bewerten, verlinken die Daten und Seiten im Web untereinander.

„Ähnlich den Synapsen im Gehirn, deren Assoziation durch Wiederholung und Intensität stärker wird, wächst das Netz der Verbindungen auf natürliche Weise als Output der kollektiven Aktivitäten aller Web-User“ [9]

Die Internetgigante wie Google, Ebay, Amazon und Yahoo haben bereits früh erkannt, dass die Nutzerbeteiligung der Motor ihrer Erfolg ist.

Daten als „Intel inside“

Heutzutage steht hinter jeder Internetanwendung eine Datenbank, die anwendungsspezifische Daten enthält. Diese Daten sind oft ein einzige Merkmal, mit dem sich die Internetanwendungen von einander unterscheiden können, weil die meisten davon bei der Erstellung ihrer Webseiten gleiche bestehende Komponente, Technik und „Best Practices“ verwenden. Kartenmaterial ist zum Beispiel ein gutes Beispiel dafür, wie die Anbieter der Webanwendungen oder auch Navigationssystems von einander abgrenzen können, in dem sie eigenes bzw. verschiedenes Kartematerial verwenden. Sie alle, oder die meisten von ihnen, bieten ein mehr oder weniger ähnliches Interface und ähnliche Funktionalität aber die Qualität der verwendeten Daten, in diesem Fall der (Straßen-)Karten, entscheidet für den Erfolg.

Angesichts der Tatsache, dass in vielen Fällen die Erstellung der einzigartigen Daten signifikante Kosten verursacht, bietet sich an das Prinzip „Intel inside“ zu verwenden. D.h. die Datenbasis wird von einem anderen Anbieter lizenziert und für eigene Zwecke verwendet.

Abbildung 2: Kollektive Intelligenz [8]

7

Dies aber kann auch Nachteilig für den Anbieter der Datenbasis werden. Anfänglich bezog Amazon die Datenbasis von ISBN Registrar R.R. Bowker. Allerdings im Gegensatz zu seiner Konkurrenz erweiterte Amazon diese Datenbasis mit zusätzlichen Informationen wie Inhaltsverzeichnisse, Cover, Indizes und was noch wichtiger ist, setzte Amazon die Nutzung der kollektiven Intelligenz an, was dazu geführt hat, sodass heute Amazon, und nicht Bowker, die wichtigste Quelle für bibliographische Daten zu Büchern darstellt [10].

Software ohne Lebenszyklus

In Zeitalter des Web 2.0 werden die Internetanwendungen nicht mehr als Softwareprodukt sondern als Service zur Verfügung gestellt. Das bedeutet, dass die Anwendungen nicht nach aus dem Software Engineering bekannten Modellen wie z.B. Wasserfallmodel entwickelt werden, sondern schon während der Entwicklungsphase für die Benutzer zugreifbar sind. Die Grundidee, die hinter diesem Ansatz steckt, liegt daran, dass der Kunde nun nicht mehr nur als Abnehmer des Softwareproduktes, sondern auch als kostenlose Mitentwickler und Tester agiert.

Daraus ergeben sich eine Reihe von Vorteilen. Zum einen, im Gegensatz zur Softwareentwicklung wird ein Dienst täglich gepflegt und aktualisiert, zum anderen, kann man die Anwendung früh veröffentlichen und basierend auf Reaktion und Feedback der Benutzer im Laufe ihrer Entwicklung entsprechend angepasst werden. Ein weiterer Vorteil besteht darin, durch zahlreiche Nutzer, die gleichzeitig die Rolle kostenlosen Tester spielen, die eventuell vorhandenen Fehler noch in der Entwicklungsphase lokalisiert bzw. beseitigt werden können.

Gute Beispiele dafür bieten solche Dienste wie Google (Maps, Mail, Produktsuche), Yahoo (z.B. Flickr) oder del.icios.us, die seit Jahren den Status „Beta“ tragen. Diese werden täglich aktualisiert und in vielen Fällen sogar ohne das der Benutzer merkt, dass ein Update eingespielt wurde.

Lightweight Programming Models (Leichtgewichte Programmkomponenten)

„Hackability“ und „Remixability“, sind die grundlegende Idee des komponentenbasierten Entwurfes einer „Web 2.0“-Webseite. Die Verwendung kleiner in sich geschlossener Module bietet eine schlanke Lösung eines großen und komplexen Webprojektes. So entstehen lose gekoppelte Systeme, deren Module (kleine Services) unabhängig voneinander benutzt und wiederverwendet werden können. Die Offenlegung der Schnittstellen zu den Web Services anderer Anbieter erlaubt eine Zusammenstellung neuer interessanter Anwendungen.

„Kooperiere ohne zu koordinieren“ ist die neue Denkweise des Web 2.0. Bei den einfachsten Web Services wie RSS oder REST-basierten Web Services werden die Daten verteilt oder ausgetauscht, wobei der Entwickler nicht kontrollieren soll, was beim Nutzer mit diesen Daten geschehen soll.

Jeder Browser bietet die Möglichkeit die Quellansicht einer Webseite anzuzeigen und somit einzelne Komponente zu kopieren. Man sieht hier, dass bei dem Entwurf der in der Software Engineering angestrebten Ansatz vom „Information Hiding“ keine große Bedeutung hat. Es wird stattdessen großer Wert auf die Widerverwendbarkeit und Erweiterbarkeit gesetzt, was eine erfolgreiche Entwicklung erleichtern und beschleunigen sollte.

8

Software über Gerätegrenzen hinweg

Dieses Prinzip wurde schon bereits mit der ersten Webseite erfüllt. Da die Kommunikation im Web nach dem Client-Server-Architektur basiert, sind bei einem Zugriff auf die Webseite mindestens zwei Geräte beteiligt, einmal der Client, der die Webseite von dem Server aufruft, und einmal der Server, der sie online zur Verfügung stellt. Somit lässt sich behaupten, dass so ziemlich alle Webanwendungen als geräteunabhängig gelten könnten.

Was O’Reilly mit diesem Prinzip gemeint hat, dass das Web, und das Internet selbst, sich zu einer Plattform entwickelt hat und auch entwickelt wird, deren Daten man nicht nur von einem Desktop-PC konsumieren bzw. bereitstellen kann sondern auch von mobilen Geräten oder Autos, die einen Internetanschluss haben.

Benutzerführung (Rich User Experience)

Wenn man den Wandel des Webs betrachtet, erkennt man ihn am deutlichsten beim letzten Punkt, die Benutzerführung. Während die anfänglichen Webseiten das Ausfüllen von Formularen, bei den man erstmal alle Felder ausfüllen sollte bevor die Daten zur Überprüfung an den Server geschickt wurden, als einzige Interaktion mit dem Server erlaubten, bieten „Web 2.0“-Webseiten mit solchen Techniken wie Ajax die nahtlosen Interaktionsmöglichkeiten an, die sich kaum mehr von einem Desktop-Programm unterscheiden.

Der Weg zu der Rich User Experience hat bereits Mitte der 90er mit der Einführung von Java-Applet, Javascript und DHTML angefangen. Diese Techniken boten die Möglichkeiten die Webseiten dynamisch zu gestalten. Serverseitige Technologien wie PHP, ASP oder Java verbesserten die dynamische Gestaltung der Webseiten und somit auch die Benutzerführung. Den Durchbruch in der im Bereich User Interface brachte Ajax, das zur Schlüsselkomponente des Web 2.0 zählt.

Zusammenfassend lässt sich sagen, dass Dank diesen Technologien sich die Entwicklung im Bereich Web Usability sich soweit fortgeschritten hat, sodass die Benutzeroberflächen von Webanwendungen den Benutzeroberflächen von Desktop-Anwendungen stark ähneln. Und die Webanwendungen, die sich als Web 2.0-Anwendungen bezeichnen wollen, sollten dieses Kriterium erfüllen.

Das waren die Prinzipen, die laut Tim O’Reilly das Web 2.0 charakterisieren und einen Unterschied zur bisherigen Wahrnehmung des Webs darstellen. Diese fasste er nochmal in seiner kompakten Definition des „Web 2.0“ zusammen:

“Web 2.0 is the network as platform, spanning all connected devices; Web 2.0 applications are those that make the most of the intrinsic advantages of that platform: delivering software as a continually-updated service that gets better the more people use it, consuming and remixing data from multiple sources, including individual users, while providing their own data and services in a form that allows remixing by others, creating network effects through an "architecture of participation," and going beyond the page metaphor of Web 1.0 to deliver rich user experiences.” [11]

9

3 Enterprise 2.0

Der Begriff „Enterprise 2.0“ wurde im Jahr 2006 von Andrew McAfee, Professor an der Havard Business School, geprägt. In seinem Artikel „Enterprise 2.0: The Dawn of Emergent Collaboration“ [12] beschreibt er, wie Social Software im Unternehmenskontext eingesetzt werden kann, um die Zusammenarbeit, Wissens- und Kommunikationsprozesse zwischen den Mitarbeitern zu verbessern. Unter dem Begriff Social Software versteht man dabei Systeme, mit denen Menschen kommunizieren, zusammenarbeiten oder weitere Art interagieren können. [13] Die prominentesten Beispiele für Social Software sind Foren, Wikipedia, Wikis, Weblogs und Chatsysteme.

Die Anwendungen des Social Software können auf verschiedene Weisen strukturiert werden. Michael Koch und Alexander Richter [14] führen zur Strukturierung drei Basis-Funktionen des Einsatzes von Social Software an:

• Informationsmanagement: Ermöglichung des Findens, Bewertens und Verwaltens von (online verfügbarer) Informationen, sowie deren Bereitstellung.

• Identitäts- und Netzwerkmanagement: Ermöglichung der Darstellung von Aspekten seiner selbst im Internet sowie das Knüpfen und Pflegen von Kontakten

• Interaktion und Kommunikationsmanagement: Direkte und indirekte Kommunikation zwischen den Benutzern

Basierend auf diese Einsatzbereiche wird in [14] der Begriff Social Software wie folgt definiert:

„Anwendungssysteme, die unter Ausnutzung von Netzwerk- und Skaleneffekten, indirekte und direkte zwischenmenschliche Interaktion (Koexistenz, Kommunikation, Koordination, Kooperation) auf breiter Basis ermöglichen und die Identitäten und Beziehungen ihrer Nutzer im Internet abbilden und unterstützen“ [14]

Der Grund für den Erfolg, sowie die breite Nutzung von Social Software liegt in der anwenderfreundlichen Bedienbarkeit, Einfachheit, Selbstverwirklichung und einer leichten Einstiegsmöglichkeit. Außerdem fördern sie den Aufbau und das Selbstmanagement einer Nutzer-Gemeinschaft. [15].

Fraglich war es, ob die erfolgreichen Web 2.0-Anwendungen bzw. -Dienste genauso erfolgreich in Unternehmen einsetzbar sind. Andrew McAfee schrieb in seinem Artikel dazu folgendes:

„Enterprise 2.0-Technologien, haben das Potenzial, aus dem Intranet das zu machen, was das Internet heute bereits ist: eine Plattform mit einer permanent wechselnden Struktur, entwickelt von verteilten, autonomen und sich weitgehend selbst organisierenden Mitgliedern einer Community.“ [16]

Diese Technologien sollten die bestehenden Kommunikationsmittel, wie Email oder Intranet-Portale, welche moderner Wissensarbeit immer weniger gerecht werden, unterstützen.

Die sechs wesentlichen Komponenten, die Enterprise 2.0-Technologien charakterisieren, fasste McAfee in dem Akronym SLATES zusammen [12]:

10

Search: Eine Enterprise 2.0 Informationsplattform enthält eine Suchfunktion, die das schnelle und gezielte Auffinden von Informationen ermöglicht

Links: Die Vernetzung von Informationen macht Wissen verfügbar. Über Verknüpfungen werden die Informationen indizierbar und analysierbar

Authoring:

Dienste geben jedem Mitarbeiter die Möglichkeit ein Autor zu sein. Die Möglichkeit zur Publikation, Kommentierung oder Weitergabe von Informationen sind Voraussetzungen für ein lebendiges und vernetztes Gemeinschaftsprojekt

Tags: Die von Nutzer vergebene Schlagwörter um Objekte wie Fotos oder Hyperlinks zu markieren, damit diese leichter zugeordnet bzw. durch Suchmaschinen gefunden werden können

Extensions:

Im Gegendsatz zu Tags, die manuell durch Nutzer vergeben werden, sollten Enterprise 2.0 Technologien auch automatische Verfahren zur Kategorisierung und Mustererkennung anbieten. Als gutes Beispiel dafür dienen Produktempfehlungen wie bei Amazon, die auf Basis gesammelter Informationen, wie Einkäufen und Interessen des Nutzers, generiert werden

Signals: News-Alerts und Systeme wie RSS sollen verwendet werden, um dem Nutzer, die von ihm abonnierten Seiten oder Themen bei jeder Änderung automatisch zur Verfügung zu stellen

Die moderne Enterprise 2.0-Technologie lassen sich bezüglich der drei oben definierter Anwendungsklassen wie folgt einordnen:

Abbildung 3: Das „Social Software Dreieck“ [17]

Hier ist zu erkennen, dass manche Technologie wie Weblogs mehrere Anwendungsklassen abdecken. Zum einen werden sie als Kommunikationsmittel zwischen den Benutzern angesehen und zum anderen dienen sie als Informationsträger.

11

4 Einordnung in das Software Engineering

Die wesentlichen Erfolgsfaktoren für eine gute Web-Anwendung ist leichte Bedienbarkeit und Übersichtlichkeit. Sie gehören zu den sieben Prinzipien, die O’Reilly im Bezug auf Web 2.0-Anwendungen definiert hat. Durch Verwendung von Technologien wie Ajax, Javascript und CSS wird es möglich, dass moderne Web 2.0-Anwendung sich hinsichtlich ihrer Usability kaum mehr von einer Desktop-Anwendung unterscheiden.

Wiederverwendbarkeit und Erweiterbarkeit sind Prinzipien, welche stark in Web-Entwicklung praktiziert wird, reduzieren die Entwicklungszeiten und -kosten. Dank modularer Programmierung, wird es möglich, vorhandene Elemente und Services zu verwenden, um durch Kombination neue Anwendungen zu produzieren.

5 Zusammenfassung

In Kapitel 2.2 wurde erläutert, wie der Begriff „Web 2.0“ entstanden ist und welche sieben Prinzipien nach Tim O’Reilly eine Web-Anwendung erfüllen muss, damit sie als „Web 2.0“-Anwendungen bezeichnet werden kann. In diesem Abschnitt werden die wesentlichen Kriterien des „Web 2.0“ kurz zusammengefasst.

Die Erfolgsfaktoren, welche dafür gesorgt haben, das Web zu dem zu machen, was es heute ist, sind Freiheit, Offenheit und Standardisierung. Freiheit im Bezug auf die Möglichkeit des Benutzers, eigene Daten schnell, unkompliziert und überall zu publizieren. Web-Anwendungen bzw. Dienste basieren auf „kollektive Intelligenz“, auf die Beteiligung der Nutzer, die Informationen im Web zu pflegen, aktualisieren, erweitern und kommentieren. Offenheit zum einen, durch Offenlegung der API-Schnittstellen, welche einen Zugriff auf Informationen in vielen Formen ermöglichen. Zum anderen durch Open-Source-Projekte, die eine große Zahl von Anwendungen, Frameworks und Schnittstellen entwickelten und zur freien Benutzung zur Verfügung gestellt haben. Damit die offenen Schnittstellen überhaupt genutzt werden konnten, mussten zu nächst einheitliche Protokolle und Formate (XML, REST, SOAP, RSS) standardisiert werden.

Wie am Anfang schon erwähnt wurde, ist der Begriff „Web 2.0“ sehr umstritten. Der Begriff umfasst eigentlich alles, was dem Web seit dem Platzen der Dotcom-Blase widerfahren ist. Und es ist kein Wunder, dass der Begriff zahlreiche Diskussionen und heftige Kritik ausgelöst hat. So zum Beispiel äußert sich Tim Berners-Lee über den Begriff:

„I think Web 2.0 is of course a piece of jargon, nobody even knows what it means“ [18]

Er ist davon überzeugt, dass das heutige Verständnis für Web 2.0 bezüglich Publizierung und Interaktion genau seiner damaligen Vision entspricht. Andere Kritiker vertreten die Meinung, dass das „Web 2.0“ nur eine große Marketingblase ist, welche lediglich konsequente Weiterentwicklung im Internet verallgemeinert. Aber Trotz aller Kritik und Diskussionen ist eins klar: das Web hat sich verändert. Durch eine Vielzahl von Anwendung wie Google, Wikipedia, Flickr, Facebook und MySpace hat es unser Leben vereinfacht, verbessert und ist zu einem Helfer im Alltag geworden. Es ist dabei irrelevant wie diese neue Innovation bezeichnet wird.

12

Ziele, die man mit dem Einsatz von Social Software in Unternehmen anstrebt, sind Verbesserung und Vereinfachung der internen Zusammenarbeit, Kommunikation und Wissensteilung. Studien [19] haben gezeigt, dass Social Software kein Fremdwort für Unternehmen ist und bereits seit Jahren umgesetzt wird. Am häufigsten werden Wikis, Foren und Instant Messenger eingesetzt. Allerdings mit unterschiedlichem Erfolg. Im Bereich Wissensaustausch und –speicherung zählen Wikis aufgrund ihrer Einfachheit und leichter Bedienbarkeit hinter der E-Mail zu dem zweitwichtigsten Instrument innerhalb eines Unternehmens. Social Software als Kommunikationsmedium wird nur als unterstützende Funktion zu traditionellen Medien, wie z.B. Telefon, E-Mail oder persönliche Kontakt, angesehen.

Allerdings wird Social Software im Unternehmen selten ohne negative Erfahrungen eingesetzt. Zu den größten Nachteilen zählen Ablenkung und zusätzliche Zeitaufwand für die Mitarbeiter. Social Software wie beispielweise Wiki sind keine „Selbstläufer“. Sie sind nur dann sinnvoll und hilfsreich wenn sie regelmäßig gepflegt, aktualisiert und verwaltet werden. Dies ist jedoch eine zeitintensive Arbeit. Hinzu kommt noch fehlende Motivation der Mitarbeiter zusätzliche Arbeit zu leisten ohne dafür entlohnt zu werden.

Aber trotz aller Kritik ist das Potenzial von Social Software in Unternehmen sehr groß. Eine mögliche Erklärung dafür, dass der Einsatz von Social Software in Unternehmen so viele Nachteilen mit sich bringt, ist die Tatsache, dass viele Mitarbeiter es als Innovation betrachten, mit der sie noch nicht vertraut sind und daher skeptisch darauf reagieren. Die damit verbundene Vorteile werden schnell übersehen. Die heutige Generation hingegen wächst mit diesen Technologien auf, sie nutzt Social Software im Privatleben, kennt ihre Vorteile und wird sie später aus Gewohnheit in alle geschäftlichen Bereiche übertragen.

„Der Einsatz von Social Software im Unternehmen ist keine Innovation sondern eine not- wendige Antwort auf die Nachfrage junger Mitarbeiter.“ [20]

13

Literaturverzeichnis [1] http://www.mr-gadget.de/apple/2009-03-10/wie-tim-berners-lee-vor-20-jahren-das-web-erfand/ [2] http://www.verivox.de/ratgeber/geschichte-des-internet-vor-20-jahren-schuf-tim-berners-lee-die-grundlagen-

40599.aspx?p=1 [3] http://www.mr-gadget.de/apple/2009-03-10/wie-tim-berners-lee-vor-20-jahren-das-web-erfand/ [4] http://de.selfhtml.org/intro/internet/www.htm [5] http://www.freitag.de/politik/0909-im-anfang-war-das-chaos [6] http://de.wikipedia.org/w/index.php?title=Datei:NASDAQ_IXIC_-_dot-

com_bubble.png&filetimestamp=20050426161953 [7] http://oreilly.com/web2/archive/what-is-web-20.html, deutsche Übersetzung: http://www.pytheway.de [8] http://www.sieberpartners.ch/news-nach-datum/2009/7/22/studie-die-kollektive-intelligenz-als-kompetitiver-

vorteil.html [9] http://www.pytheway.de/index.php/web-20/65-kollektive-intelligenz [10] http://www.pytheway.de/index.php/web-20/66-daten-als-qintel-insideq [11] http://radar.oreilly.com/2005/10/web-20-compact-definition.html [12] http://www.wikiservice.at/upload/ChristopheDucamp/McAfeeEntrepriseDeux.pdf [13] Andrea Back, Norbert Gronau, Klaus Tochterman: Web 2.0 in der Unternehmenspraxis, Grundlagen, Fallstudien

und Trends zum Einsatz von Social Software [14] Michael Koch, Alexander Richter: Enterprise 2.0, Planung, Einführung und erfolgreicher Ensatz von Social

Software in Unternehmen, Seite 12 [15] Tom Alby: Web 2.0, Konzepte, Anwendungen, Technologien, Seite 89 [16] http://www.weiterbildungsblog.de/2007/12/27/web-20-in-unternehmen/ [17] http://media.tumblr.com/tumblr_kwrdgtafn81qada44.png [18] http://www.ibm.com/developerworks/podcast/dwi/cm-int082206.txt [19] http://www.icb.uni-due.de/fileadmin/ICB/research/research_reports/ICBReport33.pdf [20] http://www.ba-ravensburg.de/fileadmin/lokal/sg_wirtschaftsinformatik/03ab/2008/soso-studie-kurz.pdf [21] Thomas Beckert: Web 2.0 und Ajax, Ein erster Einstieg ins neue Internet [22] Günter W. Kienitz: Web 2.0, Der ultimative Guide für die neue Generation Internet [23] Jürgen Schiller Garcia, Enterprise 2.0, Web 2.0 in Unternehmen