Social Web

Text
0
Kritiken
Leseprobe
Als gelesen kennzeichnen
Wie Sie das Buch nach dem Kauf lesen
Schriftart:Kleiner AaGrößer Aa

1.2.2 Die ersten selbstverwalteten Computernetze

Zentrale vs. dezentrale Organisation. Generell können wir feststellen, dass in den 1960er-Jahren ein technischer Diskurs über die Vor- und Nachteile zentraler und dezentraler Rechnerarchitekturen einsetzte. Mit dieser Debatte war die Frage verbunden, ob dezentrale und offene Organisationsmodelle generell zentralistischen Ansätzen überlegen sind – und ob, wie im Falle der RFCs, die Einbindung aller Nutzer in Entscheidungsprozesse nicht zu stabileren Ergebnissen führen würden. In den Auseinandersetzungen zwischen Anhängern des Betriebssystems Linux und Windows wird dieses Thema ebenso wieder aufgegriffen wie im Zeitalter des Social Webs bezüglich der Vorzüge einer von vielen Nutzern geschriebenen Wikipedia gegenüber einem redaktionell betreuten, gedruckten Lexikon.

Zivile Nutzung durch Privatpersonen. Dieser Diskurs schloss auch eine Diskussion über alternative Nutzungspotenziale des Computers ein. Philosophierten in der Pionierzeit des Computers vor 1960 Einzelpersonen und kleine Kreise über das Verhältnis von Mensch und Computer, so erhielt diese Debatte in den radikalen 1960er-Jahren neue Impulse und überhaupt einmal eine soziale Trägerschicht, weil neue gesellschaftliche Gruppen, vor allem Studentinnen und Studenten, mit dem Medium Computer experimentierten und beispielsweise nach 1969 Zugriff auf das ARPANET erhielten.

Hackerkultur. In diesem Zusammenhang wurde die Open-Source- und Free-Software-Hackerkultur bedeutsam, die in den 1960er-Jahren im akademischen Umfeld entstand. Ihr Anliegen: Der Kampf gegen die Bildung von Informationseliten (vgl. Raymond 1999)3. Das war damals ein verhältnismäßig kleiner und elitärer Kreis. Die ersten Hacker bildeten sich als eine Gruppe, die sich u. a. über die spielerische Verwendung der Technik formierte. Dabei entwickelte sich, wie Steven Levy schreibt, »ein neuer Way of Life, mit einer Philosophie, einer Ethik und einem Traum heraus« (vgl. Levy 1984)4. Diese Ethik wurde zunächst nicht formuliert, sondern entstand durch stille Übereinstimmung. Aber sie entsprach dem liberalen Selbstverständnis vieler Akademiker und korrespondierte mit den sozialen Bewegungen gegen die atomare Bedrohung und gegen den Autoritarismus in der Gesellschaft. Levy fasste die Hackerethik 1984 so zusammen:

1. Access to computers – and anything which might teach you something about the way the world works – should be unlimited and total.

2. Always yield to the Hands-on Imperative!

3. All information should be free.

4. Mistrust authority – promote decentralization.

5. Hackers should be judged by their hacking, not bogus criteria such as degrees, age, race or position.

6. You can create art and beauty on a computer.

7. Computers can change your life for the better.

Hier entstand eine neuartige, weltweit vernetzte Technik-Community mit einem eigenen Selbstverständnis und identitätsstiftenden kulturellen Codes: Das Jargon File, ein Wörterbuch der Hackerkultur, wurde 1975 zum ersten Mal im Netz publiziert. Die Hackerkultur entwickelte sich weiter und etablierte sich als Anwalt eines freien Zugangs zu Wissen über digitale Medien. Diese Kultur blieb allerdings immer eine Subkultur verhältnismäßig weniger avantgardistischer Technikakteure, die jedoch eine Öffentlichkeit schufen und eine bedeutende meinungsbildende Rolle in Fragen der Informations- und Kommunikationstechnologien erlangen konnten.

Erstes alternatives Netz. Ein weiterer Meilenstein in Richtung eines öffentlichen Netzes wurde 1979 das USENET als freie Alternative zum ARPANET. USENET funktionierte als internetweites schwarzes Brett. Die Kommunikation dort ist mit den heutigen Foren zu vergleichen. Im Prinzip konnte sich jeder Nutzer mit Postings an der Diskussion beteiligen und eigene Bereiche eröffnen. Besonders berüchtigt war die alt.*-Gruppe, in der sich alle möglichen und unmöglichen Interessengruppen zusammenfanden. Sozial bildete sich mit dem USENET ein öffentlicher Raum, in dem jeder zu jedem Thema lesen und schreiben konnte. Aktuell erlebt das USENET eine unerwartete Renaissance als unkontrollierte Tauschbörse für Musik und Videos.

Geburtsstunde des technischen Internets. Auf technischer Ebene vollzogen sich Anfang der 1980er-Jahre zwei wichtige Durchbrüche. 1981 stellte IBM seinen Personalcomputer vor. Damit wurde der Zugang zum Netz räumlich unabhängig von den großen Rechenzentren. Ein Jahr später wurde das Internetprotokoll TCP/ IP zum Standard, als die Defence Communications Agency und die ARPA diese beiden Protokolle implementierten. Mit der Implementierung wurde auch zum ersten Mal der Begriff »Internet« wirklich definiert. Von nun an bezeichnete man damit die Menge der verbundenen Netzwerke, die auf dem Protokoll TCP/IP basieren.

Separate Communities mit eigenen Computernetzwerken. Mitte der 1980er- Jahre entdeckten schließlich auch Menschen außerhalb der Hochschulen Computernetze als Medium. Im Jahr 1985 gründete Stewart Brand und Larry Brilliant das Whole Earth ’Lectronic Link (WELL) in San Francisco, eine der ältesten noch aktiven Online-Communitys im Internet. Über dieses Forum fanden dann auch die Gründer der Electronic Frontier Foundation zusammen, einer Organisation der Free-Speech-Bewegung. Dies ist neben den Hackern ein weiteres Beispiel für die enge Verzahnung von politischen Bewegungen mit progressiven Szenen in der Medienwelt. Howard Rheingold, ein frühes und sehr aktives Mitglied von The WELL, verarbeitete schließlich seine Erfahrungen in einem Buch mit dem sprechenden Titel »The Virtual Community« (1993).

Freenets. Für Menschen außerhalb der Universitäten entstanden zudem eine Reihe sogenannter Freenets, mit denen man Zugang zum Internet erhielt. Das erste, das Cleveland Freenet, wurde 1986 von der Society for Public Access Computing (SoPAC) in Betrieb genommen. Das Cleveland Freenet war zunächst ein separates, lokales Netz mit 10 Modems, das sich erst nach einer Weile mit dem Internet verband. Ausgehend von diesem Beispiel entstanden weitere Freenets als Orte technischen Experimentierens, aber auch für Debatten und den täglichen Klatsch und Tratsch. Erwähnenswert ist an dieser Stelle, dass Ende der 1980er-Jahre mit dem Internet Relay Chat (IRC) von Jarkko Oikarinen ein synchrones Kommunikationsformat hinzukam, das in Konkurrenz zum Telefon trat und bis heute ein beliebtes Medium von Schülern und Studenten ist.

1.2.3 Kommerzialisierung und Professionalisierung

Kommerzielle Dienste. Für unser heutiges Bild vom Internet war jedoch der Aufstieg der ersten Onlinedienstleister und hier vor allem der kommerziellen Onlinedienste, wie CompuServe, The SOURCE und AOL in den 1980er-Jahren prägender. Diese Unternehmen wandten sich zunächst nur an Großkunden, boten aber bald auch normalen PC-Besitzern Zugänge zu Computernetzwerken. Diese separaten Netze richteten Ende der 1980er-Jahre Gateways zum Internet ein, über die sie seither E-Mail und News austauschen können.

Außerdem wurde das Internet in den 1980er-Jahren international, so dass die Onlinedienstleister ein transnationales Medium zur Verfügung stellten, mit dem sich zukünftig eine global verteilte Produktion neu organisieren ließ. Das Internet wurde so zum zentralen Medium für die weltweite Güterproduktion und zum Transfer von Finanzdienstleistungen. Letzteres war, wie wir heute wissen, der Beginn einer neuen globalen hochtechnologischen Produktionsweise.

Übergang zum marktgesteuerten Internet. Die radikale Veränderung der makropolitischen Rahmenbedingungen mit dem Zusammenbruch des Staatssozialismus hatte ab 1989 auch Auswirkungen auf das Internet zur Folge. Während des Kalten Krieges entwickelte sich das Internet auf der Basis einer engen Verzahnung von Industrie, wissenschaftlichem Apparat und Politik. So war das ARPANET zweifellos ein Projekt eines tonangebenden Warfare States, der wirtschaftliches Wachstum über Rüstungsanstrengungen und Wissenschaftsförderung generierte. Im Jahr 1990 wurde das ARPANET abgeschaltet. Dies gilt heute als ein Wendepunkt in der Geschichte des Internets hin zur Kommerzialisierung des Netzes. Der Staat trat erkennbar als maßgeblicher Impulsgeber auch bei der Entwicklung des Netzes zurück. Die weitere Gestaltung wurde ab jetzt von der Initiative privater Unternehmen geprägt.

Schließlich verhieß die »Informationsgesellschaft« neue wirtschaftliche Wachstumschancen und Renditen. Deshalb veränderte die Politik die Rahmenbedingungen hin zu einer marktgesteuerten Entwicklung. Die öffentliche Hand stellte nur noch die teure technische Infrastruktur bereit und bewarb diese mit dem Schlagwort des »Information Super-Highways«. Charakteristisch war hierfür die Initiative des späteren Vizepräsidenten der USA, Al Gore. Dieser hatte während seiner Amtszeit als Senator 1991 den »High Performance Computing Act« zur Förderung des Internets initiiert, was als wichtiger Schritt zur Verbreitung des Internets gilt. Im Ergebnis kam es zu einem euphorischen Run privater Unternehmen auf das Internet hin zur »New Economy«.

Konzeption des Webs. Technisch eröffnete die Erfindung des WWW, ein über das Internet abrufbares Hypertextsystem, durch Tim Berners-Lee im Jahr 1989 neue Horizonte für die öffentliche Nutzung des Netzes. Die Idee einer dezentralen, netzartigen Speicherung des Wissens war eigentlich schon in den 1940er-Jahren entstanden. In seinem Essay »As we may think« beschrieb Vannevar Bush5 (1945) ein System, das elektronisch an eine Bibliothek angeschlossen ist und dort enthaltene Bücher und Filme anzeigen sowie untereinander referenzieren konnte. Sein System Memex sollte es zudem jedem Benutzer erlauben, eigene »Spuren«, wir würden heute Links sagen, zu setzen. Schon damals war die massive Beteiligung aller Nutzer fest in das Konzept eingeplant.

 

Abb. 1.3: Skizze des Memex-Systems

1965 hatte dann Ted Nelson ein Hypertextsystem kreiert, das nichts »vergisst«: Xanadu. Er stellte sich darunter eine unbegrenzte Informationsdatenbank vor. Sämtliche Information der Welt sollte darin gespeichert werden. Der Gegensatz zwischen Autor und Leser sollte aufgehoben sein, weil die darin enthaltenen Dokumente simultan und kollektiv bearbeitet werden können. Auch war geplant, alle alten Versionen weiter zu erhalten, falls die Texte aktualisiert würden. Dabei sollte jedes »Stück Information« eine eigene Adresse erhalten, um die Linkstrukturen konsistent zu halten. Auch hier war die aktive Beteiligung aller Benutzer angedacht. Damit hatte Nelson nicht nur die Technologie des WWW vorweggenommen, sondern auch viele Elemente des Social Webs beschrieben.

»Web 1.0« – Das Internet wird zum Massenmedium. Das Internet wurde mit dem WWW, das technisch gesehen als Dienst auf dem Internet aufsetzt, visuell spannender und weitete die Möglichkeit digitaler Publikationen. Die neuen grafischen Benutzeroberflächen der Browser ermöglichten es auch Computerlaien, das Internet zu nutzen. Der Webbrowser Mosaic eroberte ab 1993 das Internet im Sturm. Leider besaß dieser im Gegensatz zu seinem Vorläufer Nexus keine Editierfunktion. Nexus erlaubte das gleichzeitige Editieren und Verlinken mehrerer Seiten in verschiedenen Fenstern. Ohne diese Funktion konnten dann später nur noch technisch versierte Menschen Homepages erstellen. Dennoch stellten damals private Homepages einen Großteil des WWW. Sie enthielten sehr unterschiedliche Inhalte. Dominant waren: die Bereitstellung von spezifischem Wissen, private Fotoalben sowie kommentierte Linklisten. Darüber hinaus entstanden sogenannte Webringe, die auf befreundete Webseiten verlinkten.

Zunehmend entdeckte die Wirtschaft das WWW als Kommunikationsmedium zwischen Standorten und Abteilungen. Das Internet wurde damit auch Teil des Vertriebs. Für Provider, Webdesigner und Nachrichtenanbieter boten sich neue Handlungsfelder und Internetseiten wurden zunehmend als Werbeträger entdeckt. So kam es zu einer verstärkten Professionalisierung, mit deren inhaltlichen Qualität und optischer Ästhetik private Homepages kaum mehr mithalten konnten. Sie wurden – mit wenigen Ausnahmen – in einen marginalen Bereich des WWW gedrängt, wo sie weiterhin ihre Subgruppen bildeten.

1.2.4 Web 2.0 – die Aneignung des Netzes

Webradio, Wikis, Blogs und Foren. Die Aneignung des Netzes durch immer neue Nutzergruppen blieb an den technischen Fortschritt gebunden. Aus Sicht der Produzenten und Nutzer wurde das Internet allmählich multimedial. Die ersten regelmäßigen »Radiosendungen« im Netz waren die Audiodateien von Interviews mit Netzpionieren, die Carl Malamud ab 1993 unter dem Namen Internet Talk Radio ins Netz stellte. Überhaupt weiteten sich die Möglichkeiten für einfache Nutzer, das Netz mit Inhalten zu füllen. Ein großer Schritt in Richtung user-generated content waren Mitte der 1990er-Jahre die ersten Weblogs und Wards Wiki. Frühe webbasierte Foren, beispielsweise mit der Software UBB.classic betrieben, komplettieren das Bild.

Instant Messaging und Online-Spiele. Ende der 1990er-Jahre erhielt das Internet zusätzliche populäre Funktionen: Ab 1996 stand der beliebte Instant Messenger ICQ des israelischen Start-up-Unternehmens Mirabilis zur Verfügung. Massive Multiplayer Online Games (MMOG) machten das Internet vor allem für Schülerinnen und Schüler zur beliebten Spielwiese. Die ältesten MMOGs entstanden Anfang der 1990er-Jahre als Online-Rollenspiele. Das Platzen der sogenannten Dotcom-Blase im März 2000, die erste Wirtschaftskrise der IT-Branche, hatte auf die steigende Nutzung des Internets zumindest keine Rückwirkungen. Vielmehr wurden neue Geschäftsmodelle und Angebote entwickelt.

Das Web als Dokumentationsplattform. Mit neuen datenbankbasierten Applikationen und der Erweiterung der Bandbreiten wurde es möglich, immer größere Datenmengen über das WWW zur Verfügung zu stellen. Dies veränderte das Wesen des Internets insoweit, als nun das Netz zunehmend als Plattform wahrgenommen wurde, auf der man Inhalte hinterlegen konnte.

Blogosphäre und Wikipedia. Der wachsende Anteil der von privaten Nutzern erstellten Inhalte schmälert die exklusive Stellung der etablierten Nachrichtenportale und Wissensdatenbanken. Im Zusammenhang mit der globalisierungskritischen Bewegung wurden alternative und offene Medienprojekte wie »indymedia« gestartet. Vor allem die aufkommenden Blogs und die entstehende Blogosphäre eröffneten Hoffnungen auf einen Journalismus »von unten«. Weblogs wurden als neue Mitteilungsform populär. Gleichzeitig explodierte die Anzahl der Online-Communitys und ehrenamtlichen Beiträger. Mit Wikipedia startete 2001 das bislang wohl erfolgreichste Community-Projekt überhaupt.

Die Bedeutung der Blogosphäre und des Wikipedia-Projekts für die Diskussion um die Möglichkeiten eines Netzes, das als offenes Kommunikations- und Dokumentationsmedium verfügbar wurde, kann nicht überschätzt werden. Mit Wikipedia besetzte zum ersten Mal ein nicht-kommerzielles Projekt einen absolut zentralen Kommunikationsknoten. Nach Google ist Wikipedia der zweite Rechercheort für Erstinformationen. Die Blogosphäre zeigte neue Möglichkeiten dezentraler Nachrichtenverbreitung. Mit dem Erfolg der Blogosphäre und dem Wikipedia-Projekt mussten sich nun auch die Öffentlichkeit, Organisationen, Staaten, Unternehmen und die etablierten Massenmedien mit den Steuerungsmodellen im neuen Web auseinandersetzen.

Begriff »Social Software«. Im Zusammenhang mit Wikis und Weblogs fiel dann auch um 2002 zum ersten Mal der Begriff »Social Software« im Rahmen einer Tagung »Social Software Summit« des Internetexperten Clay Shirky (Himpsl 2007). Nun entstanden in kürzester Zeit die bekanntesten Vorreiter der Social Softwareanwendungen: Mit Flickr wurde im Jahr 2002 das öffentliche Sharing zu einer Massenveranstaltung. Der Anbieter del.icio.us wies mit seinem Social Tagging neue Wege in der kollektiven Verschlagwortung. Ab 2003 konnte man bei OpenBC (Open Business Club, heute Xing) und MySpace kostenlose Benutzerprofile mit Fotos, Videos, Blogs, Gruppen usw. einrichten und mit Facebook nahm 2004 ein weiteres großes Social Network seinen Anfang. Als große Player kamen Twitter 2006 und 2011 Google+ ins Spiel.

Mobile Web. Wireless LAN und Bandbreitentechnologien wie UMTS oder LTE machten es Ende der 2000er-Jahre in bislang nie gekanntem Umfang möglich, über mobile Geräte (Laptops, Smartphones, Tablets) mit dem Internet und dem Web in ständiger Verbindung zu bleiben. Die zunehmende Erreichbarkeit des Internets erweitert die Interaktionsmöglichkeiten der Nutzer erheblich, beispielsweise was die Orientierung und Terminplanung betrifft. Die Wahrnehmung der Welt wird mit dem mobilen Web aber nicht nur erweitert, sondern gleichzeitig wieder eingeschränkt, weil etwa jedes Ereignis dokumentiert und geteilt, aber in dem Moment nur eingeschränkt erlebt werden kann. Der breiten Bevölkerung sind in jedem Fall mit dem mobilen Web mächtige Tools an die Hand gegeben. Und so überrascht es nicht, dass das mobile Web seit wenigen Jahren das Web insgesamt formt. Einige wie die Geschäftsführerin der Wikimedia Foundation Lila Tretikov (2014)6 prognostizieren sogar ein Sterben klassischer Websites. In jedem Fall verlagert sich der Entwicklungsschwerpunkt, so dass auch klassische Social-Web-Anwendungen wie Wikipedia mit Hochdruck den Anforderungen des mobilen Webs und seiner Nutzer angepasst werden.

Crowd. Unter den verschiedenen Online-Communities (Entwicklercommunities, Wikicommunities, Ratingcommunities) lassen sich seit einigen Jahren Gruppen identifizieren, die als »Crowds« beschrieben werden. Das Zusammentragen von Wissen wird als »Crowdsourcing« bezeichnet. Die Vorfinanzierung von Projekten wird über Crowdfunding- oder Crowdinvesting-Plattformen organisiert. Crowds schaffen bewusst über Arbeit oder finanzielle Beteiligung Werte. So öffnen sich völlig neue Möglichkeiten, über das Web nachfrageorientiert die Herstellung teurer Produkte und Dienstleistungen zu koordinieren und bereitzustellen. Crowds decken einen allgemeinen Bedarf und die Beteiligten unterstützen ein gemeinsames, meist auch gemeinnütziges Ziel, das sie meist emotional berührt, indem sie einen begrenzten persönlichen Beitrag leisten. Eine negative Entwicklung kennzeichnet dagegen der Begriff des Crowdworkings. Dieser beschreibt die Entstehung eines neuen Niedriglohnbereichs, in dem Menschen prekär Akkordarbeit für Unternehmen leisten.

Eroberung des Öffentlichen. Was bleibt von dem oben skizzierten Bild eines früher freien Netzes, das heute durch die Kommerzialisierung und den Zugriff der öffentlichen Gewalt bedroht bzw. zerstört ist? Hier wird ein differenzierterer Blick nötig. So haben zwar große Bevölkerungsteile in den hochindustrialisierten Ländern Zugang zum Web. Sie erobern das Netz aber unter kommerzialisierten Bedingungen, die gleichzeitig die Möglichkeiten dieser Eroberung schufen. Auch bei der der oft vorgebrachten These der Rückeroberung einer Öffentlichkeit im Internet feststellen, dass die Öffentlichkeit des Netzes vielfach erst hergestellt werden muss.

Die Entwicklung der Social Software und des Social Webs ist gegenwärtig nicht abzusehen, da sie sehr widersprüchlich verläuft. So sind Medienkonzerne an der Verknappung der Ware Wissen interessiert, was sich mit der Offenheit des Mediums Internet, die nun zur größten Kopiermaschine der Welt wurde, nicht verträgt. Dadurch entsteht gegenwärtig eine neue Konfliktlinie um Fragen des Urheberrechts, freier Software und geistigen Eigentums. Hier gibt es Selbstorganisationsprozesse, die auf die Verwertungsinteressen großer Konzerne antworten. Die File Sharing Communities und jüngst auch die Crowdfunding-Communities entwickeln über ihre große Anzahl an teilnehmenden Nutzern eine erste wirtschaftlich ernstzunehmende Gegenbewegung.

1.3 Begriffsklärung und Abgrenzung
1.3.1 Social Web und Web 2.0

Warum heißt dieses Buch eigentlich nicht »Web 2.0«? Eine sehr gute Frage, die wir uns auch schon wiederholt gestellt haben. Um es ganz kurz zu beantworten: Web 2.0 ist ein Begriff, der zwar häufig synonym mit dem Social Web benutzt wird, jedoch viel umfassender ist. Hier werden – je nach Blickwinkel – technische, ökonomische und rechtliche Aspekte mit einbezogen, die wir in diesem Buch nur behandeln, wenn sie unmittelbar mit unserem enger gefassten Thema, dem Social Web, zu tun haben. Zudem widerstrebt es uns ein wenig, einen derart kommerziell belegten und unscharfen Begriff für eine wissenschaftliche Publikationsform zu verwenden, auch wenn »Web 2.0« lange als ideenleitendes Schlagwort benutzt wurde. Um zu einer Einschätzung zu gelangen, ist es dennoch wichtig, zu wissen, wie der Begriff entstand und welche Implikationen mit ihm verbunden sind.

Entstehung des Begriffs. Anders als es die Versionsnummer vermuten lässt, ist das Web 2.0 keine neue technische Ausführung des WWW, die man sich von irgendeiner Website herunterladen und installieren kann. Vielmehr spielt der Begriff auf eine gefühlte Veränderung des WWW während der letzten Jahre an.

Er entstand während eines Brainstormings zwischen dem O’Reilly Verlag und MediaLive International. Der Vizepräsident von O’Reilly, Dale Dougherty, stellte dabei fest, dass das Internet durch das Zerplatzen der Dotcom-Blase 2000 nicht zusammengebrochen war, sondern heutzutage wichtiger denn je sei. Der seither festzustellende Wandel des WWW wurde mit einem starken Schlagwort belegt: »Web 2.0«. Man beschloss eine Konferenz zu organisieren, bei der genau dieses Thema Mittelpunkt sein sollte. Dass nicht nur das Management von O’Reilly die vielschichtigen Veränderungen im WWW spürte, zeigt die enthusiastische Aufnahme des Begriffs: Nach jener ersten Web-2.0-Konferenz im Jahre 2004 verbreitete sich der Ausdruck unaufhaltsam im Internet und wurde schnell zum Oberbegriff für alle möglichen Neuerungen im Web 7.

Die sieben Punkte von O’Reilly. Tim O’Reilly hatte sich ein Jahr nach der legendären Webkonferenz die Mühe gemacht, den Begriff in dem Artikel »What is the Web 2.0?«7 zu präzisieren und nannte folgende Aspekte:

1. Web als Service-Plattform. Das WWW ist mittlerweile überall. Es ist daher nahe liegend, alltägliche Aufgaben ins Netz zu verlegen. Terminplanung, Projektmanagement und Text- oder Bildverarbeitung verlassen die Grenzen lokaler Desktopanwendungen und werden im Internet abgelegt und verwaltet. Steigende Kapazitäten in der Breitbandkommunikation und die neue Funktionalität moderner Webapplikationen machen dies möglich.

 

Abb. 1.4: Bildbearbeitung im WWW mit Fotor

Hier sind nur einige Beispiele von einer Fülle an neuen Webapplikationen:

• Pixlr: Bildbearbeitungsprogramm,

• Lino: Haftnotizzettel und Fotos teilen,

• Doodle: Tool für Umfragen,

• Google Drive/Microsoft Office 365: Ein komplettes Office-Paket im Netz,

• Dropbox: Cloud-Speicherdienst (auch »Filehosting«),

• Trello: Tool für Projektmanagement und Workflows,

• Tricider: Brainstorming- und Abstimmungsprozesse.

Der Nutzer genießt durch diese WWW-Dienste einige Vorteile:

• Programme müssen nicht mehr auf dem lokalen Rechner installiert und gepflegt werden.

• Der User kann unabhängig vom Betriebssystem sämtliche Dienste nutzen.

• Zudem kann er von überall auf seine persönlichen Daten, wie z. B. seine Fotos, Adressen oder Lesezeichen, zugreifen und sie bearbeiten.

• Kooperative und kollaborative Arbeitsformen werden möglich.

Diesen Annehmlichkeiten steht natürlich die entscheidende Frage nach dem Datenschutz gegenüber, die erheblich an Bedeutung gewinnt, wenn persönliche und daher zu schützende Dateien zunehmend direkt im Web gespeichert werden.

2. Einbeziehung der kollektiven Intelligenz der Nutzer. Schlagworte wie Mitmach-Netz oder user-generated content fallen unter diesen Punkt. Es ist also nicht mehr der Betreiber, der die Inhalte seiner Website gestaltet, sondern der Nutzer selbst, der die jeweiligen Plattformen mit Bildern, Videos, Informationen und seinen Meinungen füllt. Selbst die Struktur einer Seite kann gemeinsam verändert werden. Durch einfache, benutzerfreundliche Oberflächen werden die Einstiegshürden so gering wie möglich gehalten, so dass die Nutzer fast ohne jegliche technische Vorkenntnisse aktiv an der Veränderung der Website mitwirken können. Ein beliebtes Beispiel ist die Enzyklopädie Wikipedia, auf der jeder Nutzer Wissen niederschreiben und ein anderer beliebiger User diesen Artikel ändern darf. Anders als vermutet, hat das Fehlen eines zentralen Redaktionsprozesses keine Qualitätseinbußen zur Folge. Vielmehr steigert die Teilhabe vieler Nutzer am Gesamtwerk den Wert der Anwendung und jeder Teilnehmer profitiert davon.

3. Daten stehen im Mittelpunkt der Anwendungen. Die Anwendungen stehen und fallen mit den Daten, die von Nutzern permanent generiert werden. Die Qualität und Quantität der Datenbestände spiegeln das Kapital der Webanwendungen wider. Die Inhalte sind damit wesentlich wichtiger als ihre Darstellung. Datenbestände wie das gesammelte Wissen von Wikipedia oder die Strukturen landesweiter sozialer Netze samt Adressen und Telefonnummern bei XING konnten bisher nur mit hohem Aufwand und viel Fleißarbeit gewonnen werden. Jetzt geht es darum, sie zu verbinden und zu nutzen. Dabei hat das Rennen um die wichtigsten Daten bereits begonnen, vor allem um geografische, persönliche, terminliche und produktspezifische.

4. Neue Formen der Softwareentwicklung. Software wird im Web 2.0 nicht mehr als Produkt ausgeliefert, sondern als Service. Denn ein Produkt aktuell zu halten, ist wesentlich schwieriger als einen Service, bei dem die Software zentral auf einem Server vorgehalten wird.

Die aus der Softwareentwicklung traditionsgemäß gepflegte Versionsnummerierung und die Publikation von neuen Versionen einer Software alle paar Jahre gelten seit dem Web 2.0 als überflüssig und inkonsistent. Neue Versionen werden möglichst früh und möglichst oft im Betastadium veröffentlicht.

Der Entwickler profitiert davon:

• Bei einem Millionenpublikum bekommt man selbst auf kleinste Veränderungen hin ein schnelles, aussagekräftiges Feedback.

• Neue Praktiken können schnell ausprobiert und frische Ideen sofort umgesetzt werden.

• Das Publikum, also diejenigen, die eine Software nutzen werden, weiß oft besser als die Entwickler, was verbessert werden soll.

• Auch aus dem Verhalten, z. B. der Reihenfolge von Klicks, lassen sich Rückschlüsse ziehen.

Im Social Web ist das Image des permanenten Beta so gut, dass es sogar dem Anwender gegenüber immer wieder als Qualitätsmerkmal und als Zeichen für eine besonders innovative Plattform dargestellt wird. Ganz nach dem Motto: »It’s not a bug, it’s a feature!«


Abb. 1.5: Logo mit »Beta«

5. »Leichtgewichtige« Programmiermodelle. Um die Daten einer breiten Menge zugänglich zu machen, werden »Lightweight Programming Models« implementiert. Das heißt, dass die Daten sehr einfach über eine HTTP- oder Web-Service-Schnittstelle bereitgestellt werden. Neue offene, flexible, leicht zu bedienende Schnittstellen, sogenannte APIs, ermöglichen den Zugriff auf die global gesammelten Daten, die auf den Servern großer Onlineunternehmen, wie z. B. eBay, abgespeichert und ständig aktualisiert werden.

Verschiedenste digitale Daten lassen sich beliebig vermischen und in neue Formen bringen. So entstehen sogenannte Mashups, die Inhalte von verschiedenen Anwendungen des Internets zusammenbringen, z. B. Placeopedia, die die Funktionalitäten von Google Maps und Wikipedia vereinigt, so dass sämtliche Plätze der Welt mit Wikipedia-Einträgen angereichert werden können.

6. Software, die auf vielen Geräten nutzbar wird. Nicht nur der PC kommt als Endgerät in Frage, sondern auch mobile oder sonstige Geräte. Damit wird ein altes Ziel von Webseiten wieder belebt. Sie sollen so gestaltet werden, dass die Darstellung auf verschiedenen Medien möglich ist. Mittlerweile ist es weder schwierig noch kostenintensiv, über Smartphones und Tablets ins Internet zu gelangen. Da diese Helfer zu unseren täglichen Begleitern geworden sind, liegt es nahe, die erwähnten Datenbestände auch mit solchen Geräten abzurufen. Ein Beispiel ist das Mobile Tagging mit zweidimensionalen Strichcodes, die an Gegenständen angebracht werden können und eine URL kodieren. Mit einem Fotohandy können diese gelesen und via mobilem Browser abgerufen werden.

7. Rich User Experience. Der letzte Aspekt bezieht sich noch einmal auf den ersten Punkt in O’Reillys Liste, geht dabei jedoch direkt auf die konkrete Bedienbarkeit der Software ein. Wenn der Desktop zum Webtop mutiert und kein Unterschied zwischen einer Applikation im Netz und einem lokal installierten Programm besteht, bedeutet dies, dass die Webapplikationen einen riesigen Sprung in Sachen Usability gemacht haben. Und in der Tat ist es auf einmal möglich Drag & Drop, ausgereifte Fenstertechniken und andere bequeme Funktionalitäten zu nutzen, die man bisher nur von der Desktopsoftware kennt. Der »Touch«-Screen erweiterte die Interaktionsformen. Eine Schlüsseltechnologie dabei ist Ajax (siehe Kapitel 2.8.2).

Soweit also die sieben Punkte, die O’Reilly angeführt hat. Mittlerweile haben sich mindestens drei zusätzliche Aspekte herauskristallisiert, die immer wieder im Zusammenhang mit dem Web 2.0 auftauchen.

Juristische Herausforderungen. Eine nicht zu unterschätzende Gefahr stellt die Transparenz persönlicher Informationen im WWW dar. Da das Web 2.0 davon lebt, dass Nutzer ihre Vorlieben, Interessen und Meinungen gerne ins Web verlagern und offenlegen, hat jeder Zugriff darauf. Dies wirft ganz neue rechtliche Problemstellungen auf, die natürlich auf das reale Leben abfärben und damit auch dort nach der momentanen Gesetzeslage behandelt werden müssen. Leider ist die Rechtsprechung mit der neuen Technologie zum Teil überfordert, so dass wenig Rechtssicherheit besteht und manchmal skurrile Urteile gesprochen werden1. Es ist anzunehmen, dass es noch Jahre dauern wird, bis der rechtspolitische Klärungsprozess tragfähige Ergebnisse bringt.