Aus alt mach neu?

Über Innovationen und Recycling im
„Social Web“






Text:
Astrid Lamm    Illustration: Björn Brückerhoff



Warner und Mahner: das neue Web als Gefahr

In seiner Ausgabe vom 11. August 2008 titelt das Nachrichtenmagazin „Der Spiegel“ mit der Frage „Macht das Internet doof?“ Das Layout des Titelblatts ist eine Persiflage auf die Startseite des Suchmaschinen-Riesen Google. Der Artikel selbst enthält wenig Neues für erfahrene Internet-Nutzer, zeigt aber an, dass der deutsche Journalismus das Web für wichtig genug hält, der breiten Öffentlichkeit wieder einmal den Stand der Dinge warnend und mahnend vor Augen zu führen.

Die Diagnose fällt nicht positiv aus, aber die Gründe dafür wird man kaum lediglich in der wachsenden Animosität zwischen traditionellem Journalismus und dem „Read-Write Web“ ausmachen können, das sich immer mehr zur echten Konkurrenz der Print-Medien mit ihrer 350jährigen Geschichte mausert. So stimmt auch Josef Joffe in der „Die Zeit“-Ausgabe der gleichen Woche (Nr. 34 vom 14. August) auf dem Titelblatt kulturpessimistische Töne an: „Ein erfolgreiches Internetangebot aus Amerika bedroht die Zukunft des gedruckten Wortes.“

Die Opposition steht klar vor Augen: hier das Zeitungs- und Buch-Gewerbe, Hüter von Kultur, Weisheit und Aufklärung, dort das alles verschlingende neue Internet, das im großen und ganzen auf dem Pfusch von Amateuren beruht. Die zehren von der Arbeit anderer, ohne dafür zu bezahlen, und ziehen auch noch die für alle existentiellen Werbeeinnahmen von den klassischen Medien ab hinein ins Netz, weil sich die Aufmerksamkeit der folglich verdummenden Mediennutzer in eben dieser Richtung fokussiert. Joffe nennt beispielhaft die Entwicklung der New York Times – wohl
noch immer die wichtigste Zeitung der Welt deren Börsenwert 2002, also nach dem Dot.com-Crash der Internet-Start-Ups am Neuen Markt und vor dem Siegeszug des so genannten Web 2.0, das Dreifache ihres heutigen Wertes betrug.

Die jährlichen Verlust-Raten des gesamten amerikanischen Zeitungsmarktes hochrechnend und auf Europa übertragend, „da fast alles, was dort entsteht, irgendwann über den Atlantik kommt“, rechnet Joffe vor, dass „etwa 2048 die letzte Zeitung im Briefkasten liegen wird“.  Das an sich müsste kein Schaden sein, könnte man meinen
– wenn, ja wenn das Internet nicht gleichzeitig „doof machen“ würde, so das Argument beider Leitmedien des deutschen Journalismus: doof durch das riesige unterschiedslose Nebeneinander von Inhalten, die einzuschätzen die Erben von „Descartes, Kant und Humboldt“ über keine Mittel mehr verfügen, so dass ganze Generationen im Strom der Datenfluten ahnungslos unterzugehen drohen und es nicht einmal bemerken (vgl. „Die Daten-Sucht“, Der Spiegel Nr. 33, 11.08.08, S. 90).


Was bisher geschah

Was hat sich im vergangenen Jahrzehnt so dramatisch verändert, dass das zwischenzeitlich schon abgeschriebene World Wide Web sich quasi im zweiten Anlauf anschickt, doch noch die klassische Herausforderer-Rolle, die bislang noch jedes historisch neue Medium inne hatte, einzunehmen und die Platzhirsche derart zu beunruhigen? Denn bei einem Vergleich ist rasch erkennen: so grundlegend Neues enthält das von Tim O’Reilly 2003 auf den markigen Begriff gebrachte Web 2.0 nicht gegenüber dem, was das erste Jahrzehnt Internet geprägt hatte
(vgl. im folgenden z. B. Jürgen Schiller García sowie Heiko Idensen: Hypertext als Utopie).

Schon Mitte der 90er-Jahre verhieß die Euphorie, die das 1993 kommerzialisierte und somit als Massenmedium freigegebene World Wide Web ausgelöst hatte, den demokratischen Zugang aller zu Information und Wissen, zu Aktivität, Kollaboration und Partizipation. Sogar die Autorschaft der Massen, die sich befreien könnten aus Jahrzehnte langer passiver Rezeption der Massenmedien, wurde antizipiert. Deren eindimensionale Sender-Empfänger-Struktur hatte schon Bert Brecht am Beispiel des Radios als Crux der Medien des 20. Jahrhunderts identifiziert. So wurde vor rund einem Jahrzehnt das emanzipatorische Potenzial des Internets heraufbeschworen und auch zu realisieren versucht: In den 90er-Jahren wurden Online-Communities gegründet, deren Idee sich von den heutigen Möglichkeiten der Online-Zusammenarbeit nicht prinzipiell unterschied. Es gab Chats, Foren und Instant Messaging, mittels derer sich simultan oder auch zeitversetzt über das Netz ausgetauscht wurde. Multimedia war damals das meistbenutzte Schlagwort, obwohl es erst heute zum Massensport geworden ist, Bilder, Ton- und Videodokumente zu erzeugen und online bereit zu stellen. Die ersten Wikis und Weblogs kamen Mitte der 90er-Jahre auf, ebenso wie Content Management-Systeme, die heute den Großteil aller Webseiten im Hintergrund am Laufen halten.

Allerdings waren Content Management-Systeme damals noch ein teures und umständliches Vergnügen, das vor allem kommerzielle Betreiber einkauften, während Amateure ohne Programmierkenntnisse nur geringe Chancen hatten, die Technik zu nutzen. Ohne eine gewisse technische Einarbeitung war die Betreibung eigener Webseiten so oft nur auf dem ästhetisch eher schauerlichen Niveau sogenannter Web-Baukästen möglich, die Internet-Provider anboten. Wikis und Blogs mit ihren einfachen redaktionellen Werkzeugen konnten sich noch nicht massenhaft durchsetzen. Die Kultur des Selber- und Mitmachens war noch nicht geboren. Die noch begrenzten Möglichkeiten der Übertragungstechnologie ebenso wie die Strategie damaliger Marktteilnehmer verhinderten, dass die Grenze zwischen Content-Erzeugern und -Konsumenten in der Weise aufweichte wie dies in den vergangenen fünf Jahren geschehen ist, obwohl die Ideen und Techniken da waren.

Auch das Schlagwort vom „Web als Plattform“ stammt aus den 90er-Jahren: Der Begriff des Web als riesiges, den Desktop ersetzendes Archiv für jedermann, in dem sogar die Programme ablaufen, mit denen man die Daten bearbeitet. Microsoft hatte bereits vor zehn Jahren mit Windows-98 ein Betriebssystem vorgelegt, das die Schwelle zwischen lokalem Desktop und Internet zu minimieren, das eine durchlässig für das andere machen wollte. Java scheiterte damals bei dem Versuch, im Web laufende Programme zu verkaufen, weil es seiner Zeit voraus war. Der Browser Netscape Navigator stellte Ende der 90er mehr Funktionen bereit als je zuvor. Damals entschied der einfachere, reduzierte und stabilere Internet Explorer die Konkurrenz noch für sich. Heute übertrifft der beliebte Firefox-Browser mit seinen Hunderten von Add-Ons den Umfang des damaligen Navigators auf Wunsch bei weitem, was ein Teil seiner Beliebtheit ausmachen dürfte.

Während die heutigen Web 2.0-Webseiten mit ihrer Simplizität die Mitmach-Schwelle auf ein Minimum reduzieren und so von den Daten, dem „User-generated-Content“ ihrer Besucher profitieren, wurden die Websites Ende der 90er-Jahre immer professioneller, komplizierter und technisierter. Damit wurde der Graben zwischen Internet-Machern, die den Content bereit stellten, und Nutzern, die diesen konsumierten, immer größer. Die Internet-Utopien der frühen 90er Jahre bewahrheiteten sich in der Folge trotz der Verbreitung des Webs immer weniger
(vgl. dazu Dion Hinchcliffs über die Entwicklung 1996 bis 2006). Mit besagtem Massen-Börsen-Crash der Internet-Unternehmen der ersten Generation um die Jahrtausendwende war dann das Feld bereinigt und der Weg frei für das Web 2.0.

Nicht die Technik oder die Programme sind das Innovative am Web 2.0, in dem zwei Technologien dominieren: RSS und Ajax („Asynchronous Javascript and XML“), letzteres bestehend aus Javascript und XML. Deren Grundlagen standen bereits in der zweiten Hälfte der 90er-Jahre zur Verfügung: “Basically, what Ajax means is ‚Javascript now works’. And that in turn means that web-based applications can now be made to work much more like desktop ones“ (
Paul Graham: Web 2.0). Neben der Weiterentwicklung der Breitband- und Wireless-Technologie, welche die schnelle, billige und mobile Datenübertragung so einfach machte wie Telefonieren, waren es neue Unternehmer, die das Wesen des Mediums besser verstanden und ihm zum Erfolg verhalfen (vgl. zu dieser Deutung der Entwicklung Tim O’Reillys Artikel „What is Web 2.0?“).

Dazu gehören auch die zahlreichen Open-Bewegungen, die Content, besonders aber Programm-Code offen legten, wodurch Standards jenseits von proprietärer Software möglich wurden. Schnell setzte sich Google an die Spitze dieser Entwicklung. Ein Beispiel dafür ist die Anwendung Google Maps. „The hackers dominate Google, and that’s why Google wins.“ (
Paul Graham: Interview About Web 2.0)-

Bill Gates‘ Microsoft hingegen, das 1998 klar via PC-Markt auch das Internet kontrollierte, sucht seit Jahren nach Wegen, die alte Dominanz zurück zu gewinnen (zuletzt scheiterte die Übernahme von Yahoo). Paul Graham, der Programmierer, der 1995 die erste webbasierte Anwendung schrieb und zu den Entwicklern der populären 2.0-News-Seite „reddit“ gehört (über deren Top-Storys eine globale Leser-Redaktion interaktiv entscheidet), bilanziert die Veränderung der Kräfteverhältnisse nach zehn Jahren: „There hasn’t been such a wave of new applications since microcomputers first appeared. Even Microsoft sees it, but it’s too late for them (...)“  (
Paul Graham: Web 2.0).

Die neue Revolution im Netz zeigt sich in diesem Licht als frei gelegter Kern früherer Verpuppungen. Insbesondere die millionenfach beliebten Social Sites befriedigen endlich das Zugehörigkeits-Bedürfnis ihrer Nutzer und bieten so einen Mehrwert gegenüber dem bloßen Absurfen von Informationen. Das Netz feiert seinen endgültigen Durchbruch dank der Möglichkeiten, in Blogs, Wikis und Repositories aller Art Bilder, Videos, Musik, Podcasts, Bookmarks, Folien oder Texte zu deponieren und durch voting, sharing und clipping, durch kommentieren und verlinken zu verändern und bekannt zu machen, ohne dass Profis ihre Finger im Spiel hätten. Deren Geschäft hat sich auf die im Hintergrund laufenden Datenbanken reduziert (und angesichts der zu verwaltenden Mengen gleichzeitig erweitert).


Wie alles weiter geht


Hat diese Entwicklung nun zur erhofften Demokratisierung von Wissen, zur freien medialen Entfaltung für jedermann geführt? Nicht nur „Der Spiegel“ und „Die Zeit“ hegen Zweifel. Seit Jahren forschen Entwickler nach Wegen, das Netz in Richtung Semantic Web weiter zu entwickeln, um der nach und nach zum Fluch werdenden neuen All-Verfügbarkeit von Inhalt dringend benötigte Ordnungs-Prinzipien entgegenzusetzen (vgl. z. B.
Alex Iskold: Web 3.0: When Web Sites Become Web Services).

Noch immer werfen Suchmaschinen ihre Ergebnisse nach Häufigkeit der Verlinkung im Netz aus, nicht nach qualitativen oder gar individuellen Kriterien, die dem Suchenden die Gewichtung und Bewertung seiner Such-Ergebnisse erleichtern würden. Wo die Weiten des Netzes immer unendlicher werden, stehen sich zwei Tendenzen nur scheinbar widersprüchlich gegenüber: An Inhalten und Kontakten jeglicher Art, für jeden beliebigen beruflichen wie privaten Zusammenhang, ist im Netz kein Mangel, und täglich werden es mehr. Woran es hakt, sind die Werkzeuge zur Begrenzung, zur Reduktion auf das Wesentliche. So einfach und schnell es geworden ist, sich Inhalte zu beschaffen, so viel Zeit verschwenden wir darauf, Nebensächliches zu durchforsten und von wirklich Relevantem mühsam zu scheiden. Weil dieses Sortieren so anstrengend ist und immer weniger gelingt, halten sich nachfolgende Generationen erst gar nicht mehr weiter dabei auf. Sie müssen erst erlernen, was die Nutzer in den 90er-Jahren noch als selbstverständliche, an anderen Medien entwickelte Kulturtechnik mitbrachten.

Beispielsweise tritt die Tag Cloud als Resultat allgemeiner Verschlagwortung im Web 2.0 an, die ältere Taxonomie der Kategorisierung abzulösen, mit der Suchmaschinen in den 90ern das Web-Wissen sammelten. Aber was für den einen wichtig erscheint, ist für den anderen wertlos, erst recht da, wo Amateure zuhauf am Werk sind, die sich keinen gemeinsamen  Bewertungs-Richtlinien verschreiben. Zu anonym und weit gefasst sind die Nutzerkreise im Web. So dreht sich beim Thema Verschlagwortung den Profis der Magen um: Schlagworte werden nicht sauber voneinander getrennt, da keinem System unterworfen, und Gewichtungen entsprechen mehr dem Massen-Geschmack als professionellen Erwartungen.

Mit der viel beschworenen „Wisdom of Crowds“ ist es nur dann weit her, wenn die Zeit, die vorhandenen Perlen zu finden, noch in einiger Relation zum Recherche-Aufwand steht. Vor lauter überbordender Informationsverarbeitung, allem voran die tägliche Email-Flut, finden wir kaum mehr die Zeit, die Informationen auch wirklich zu lesen oder gar zu verarbeiten. Wozu auch, erscheint doch jeder Text relativ, da Hunderte weitere zum gleichen Thema per Knopfdruck verfügbar sind. Wer garantiert, dass gerade dieses und jenes Recherche-Ergebnis die Lek
türe wert ist? Um sich abzusichern, könnte man beginnen, etwa Bewertungen anderer Nutzer zu lesen. Die wiederum zu ähnlichen und ebenso interessanten anderen Quellen weiter führen. Den eigentlichen Text, der ursprünglich der Arbeits-Ausgangspunkt war, haben wir am Ende des Tages längst vergessen – ohne auch nur seine erste Zeile gelesen zu haben.






 



A
usgabe 56
Die Weltmaschine




Startseite
Editorial: Das Wunder von Genf
Alles ist eine Frage der Konsumgewohnheiten“.
Interview mit Karlheinz Brandenburg

Was von der Zukunft geblieben ist
Wie soziale Kontakte im StudiVZ geknüpft und gepflegt werden

Aus alt mach neu? Über Innovationen
und Recycling im Social Web

Raus aus der Selbstbeobachtungsfalle!
Leben nach dem Digitaltod
Die Entwicklung des Internetrechts
Die Vordenker. Gesammelte Vorträge von Denkern und Machern, die das Web prägen


Autoren dieser Ausgabe

Die Autorin



Astrid Lamm hat 1998 ein Studium der Germanistik, Soziologie und Politikwissenschaften in Göttingen abgeschlossen. Berufliche Stationen waren zunächst die Personalarbeit und Weiterbildung, später die Online-Redaktion und Öffentlichkeitsarbeit. Zur Zeit ist sie Stipendiatin und Lehrbeauftragte am Fachbereich Verwaltungs-wissenschaften der Hochschule Harz (FH).




Verwandte Artikel


Was von der Zukunft geblieben ist
von Thomas Roessing

 



Impressum
Themen des Magazins
Ausgabenverzeichnis
Stichwortverzeichnis
Verzeichnis aller Autoren


Newsletter und RSS-Feed
Link in del.icio.us ablegen
Artikel drucken

Presse