MarinComics Home

Ausblick: The Future, the final Frontier

« Zum vorigen Kapitel | Zum Inhaltsverzeichnis | Zum nächsten Kapitel »

“Engineers are all basically high-functioning autistics who have no idea how normal people do stuff.”
Cory Doctorow, amerikanischer Science Fiction Schriftsteller und Technologie-Journalist

Dies ist das Ende meiner technologie-geschichtlich geprägten Arbeit. Die Geschichte selbst ist aber noch lange nicht zu Ende.

In einem anderen Zusammenhang schrieb der Politikwissenschaftler Francis Fukuyama in seinem Buch "The End of History and the Last Man" (1992), der Zusammenbruch des realexistierenden Sozialismus im Ostblock sei das Ende der Geschichte. In Anlehnung an Marx und Hegel stellte Fukuyama den Anspruch, dass dieser Zusammenbruch eine letzte Synthese darstellt, bei der es keine weltpolitischen Widersprüche mehr gibt und somit die großen geschichtlichen Umbrüche ihr Ende gefunden haben42.

Doch Technologie prägt die Weltgeschichte und technologische Entwicklungen werden ihrerseits von weltgeschichtlichem Geschehen geprägt, begünstigt oder sogar verhindert.

Sprung vorwärts, Technik!

Der englische Mathematiker und Erfinder Charles Babbage entwickelte im 19. Jahrhundert auf der Höhe des British Empire den mechanischen Rechner “Differenzmaschine”, in der einige Grundprinzipien der heutigen EDV etabliert wurden. Er entwarf auch die "Analytical Engine", musste aber mit der Konstruktion an den materiellen und werkmännischen Einschränkungen der damaligen Epoche scheitern.

All diese Versuche konnten nur durch die ökonomische Macht und Redundanz an Ressourcen des British Empire unternommen werden. Nach heutigem Geldwert hat allein der gescheiterte Versuch, die Differenzmaschine No.2 zu konstruieren, so viel gekostet wie das “Manhattan Project”, das im Zweiten Weltkrieg zur Entwicklung der Atombombe führte. (Frank Hartmann: "Globale Medienkultur: Technik, Geschichte, Theorien"; WUV UTB, Wien 2006)

Im beginnenden 20. Jahrhundert ermöglichte es die Ausbreitung der maschinellen Datenverarbeitung43 durch die Erfindungen von Hermann Hollerith und später durch die kommerzielle Weiterentwicklung durch IBM, Staaten die genaue Erfassung und Auswertung der eigenen Bevölkerung nach Alter, Religion, Beruf und weiteren Kriterien. Erst diese technischen Möglichkeiten erlaubten es Nazi-Deutschland eine lückenlose Einberufung der Männer in die Wehrmacht und SS, aber auch die genaue Identifizierung der jüdischen Bevölkerung, um sie der industriellen Vernichtung bei zu führen. (Edwin Black: “IBM and the Holocaust: The Strategic Alliance Between Nazi Germany and America's Most Powerful Corporation”; Three Rivers Press, New York 2002)

Es ist das Wechselspiel zwischen der Verfügbarkeit von Technik und der von Staaten bereitgestellten finanziellen Mittel, die den Fortschritt vorangetrieben haben. Kriege als die allergrößten geschichtlichen Einschnitte treiben Technologie am stärksten voran.

Die Arbeit der Kryptologen im englischen Bletchley-Park zur Entschlüsselung der kodierten Funkübertragungen der Achsenmächte führte zur Entstehung von “Colossus”. Alan Turing und Max Newman konnten diese Maschine nur deshalb entwickeln, weil in Kriegen, Geldmittel für Technologie zur Verfügung stehen, die in Friedenszeiten in dieser gebündelten Form nicht bereit stehen. (Steven Levy: "Crypto: How the Cose Breakers Beat the Government--Saving Privacy in the Digital Age: Keepers of Secrecy, Warriors of Privacy and Celebrants of Anarchy in the New Code War"; Viking Adult, New York, 2001)

Es hängt stark von der jeweiligen Quelle ab, wer den ersten Computer erfand. Großbritannien beansprucht sowohl den Entwurf der “Analytical Engine” von Babbage (1837 erstmals beschrieben), als auch Turings “Colossus” (1943) als ersten Computer. Deutschland betrachtet den “Z3” von Konrad Zuse (1943) als ersten elektronischen Rechner44. Die USA erkennt erst “ENIAC” (1944) von J. Presper Eckert und John W. Mauchly als ersten Computer an45. (Frank Hartmann: "Globale Medienkultur: Technik, Geschichte, Theorien"; WUV UTB, Wien 2006)

Tatsächlich sind all diese vermeintlichen “Ersterfindungen” von der jeweiligen Definition des Computers abhängig46. Wenn wir den Computer als elektronische Maschine mit eigener binärer Recheneinheit, Speicher und Ein/Ausgabeschnittstelle definieren, fällt jede dieser historischen Entwicklungen aus dem Rahmen. Allerdings ist noch lange nicht gesagt, dass sich diese Definition nicht in Zukunft ändern wird.

Auch Entwicklungen, die für uns im 21. Jahrhundert als ganz gewöhnlich und eindeutig nicht militärisch betrachtet werden, finden ihre Wurzeln im weltpolitischen Geschehen. Das Internet, GPS (Global Positioning System)47 und Mobilfunktechnologie wurden alle im militärisch finanzierten Forschungsbereich entwickelt, angetrieben durch den Rüstungwettlauf im Kalten Krieg zwischen den Vereinigten Staaten und der Sowjetunion48.

Ein Muster lässt sich erkennen: Die mächtigen kriegsführenden Nationen beeinflussen den technologischen Fortschritt maßgeblich (z.B. das British Empire im 19. Jahrhundert, das verbrecherische Nazi-Deutschland in der ersten Hälfte des 20. Jahrhunderts, die vom Kalten Krieg angetriebenen USA im 20. Jahrhundert).

Der militärische Mauszeiger

Wozu dieser scheinbar unverwandte Exkurs? Hat hier meine Lust, über Technologie, Militär und geschichtlichem Journalismus zu fabulieren, die Überhand genommen? Und vor allem: was hat das alles mit Apple zu tun?

Mit dem Apple Macintosh brachte Apple die erste vom Mainstream angenommene grafische Benutzeroberfläche heraus. Diese basierte auf Entwicklungen des Unternehmens Xerox. Genau genommen wurde in der Xerox Forschungseinrichtung PARC an der Entwicklung von Computer gearbeitet, die über Fenster, Menüs, Icons und der Maus bedient wurden (WIMP - Windows Icons Menus Pointing devices).

Die erste Maus und die damit verbundene, damals noch primitiven Menüführung wurden aus Mitteln der ARPA (Advanced Research Project Agency49) finanziert. Zwar lag die Maus selbst nicht im Rahmen der gewünschten Projekte, trotzdem führte Douglas Engelbart dieses neuartige Eingabegerät bereits 1968 vor50 (Michael A. Hiltzik: “Dealers of Lightning: Xerox PARC and the Dawn of the Computer Age”; Harper Collins, New York 2000).

Erst Xerox-Technologien erlaubten es Apple, Mac OS zu entwickeln. Microsoft eiferte mit Windows genau diesen Prinzipien nach. Darauf bauten die Abtrünnigen um Steve Jobs bei NeXT. NeXT-Technologien bilden den Kern von Mac OS X.

Es führt ein direkter Pfad von den kalten Kriegern des US-Militärs über die neugierigen, üppig finanzierten Forscher des PARC und dem Innovationsreichtum Apples zum kleinen Mauszeiger, der sich fleißig auf allen Computerbildschirmen der Welt bewegt.

Das Betriebssystem als Herz aller Maschinen

Apples gesamtes Geschäftsmodell baut mittlerweile auf Mac OS X auf. Das Betriebssystem hat sich als derartig flexibel und anpassungsfähig erwiesen, dass es nicht nur in Desktop-Macs und Notebooks verwendet wird, sondern auch auf Servern und mobilen Geräten wie dem iPhone und dem iPod Touch.

Im Gegensatz zur Konkurrenz von Microsoft läuft auf dem iPhone tatsächlich eine abgespeckte Variante von OS X. Dahingegen ist Windows Mobile von Microsoft ein anderes Betriebssystem als Windows für PCs.

Entwicklungen in der iPhone-Variante von OS X (OS X Touch) werden nach und nach in die Hauptimplementierung von Mac OS X übernommen, so wie OS X Touch langsam aber sicher immer mehr Features von Haupt-OS übernimmt. So sichert sich Apple den Vorsprung.

Die Stärke des Unternehmens, die von vielen Linux-Hackern allerdings als großer Nachteil betrachtet wird, ist die komplette Kontrolle, die es über das Betriebssystem ausübt. Auf dem Mac beschränkt sich die Kontrolle darauf, wie Anwendungen aussehen sollen und auf welcher Hardware das System laufen darf. Auf dem iPhone entscheidet Apple sogar darüber, welche Software veröffentlicht werden darf.

Für den User ergibt sich dadurch Einheitlichkeit in Aussehen und Bedienung. Entwickler erhalten eine homogene Plattform.

Fossile im Teer

Betriebssystementwickler müssen immer wieder neue Features anbieten. Ein Betriebssystem ist ein ständiges Work-in-progress. Jeder Stillstand bedeutet eigentlich Rückschritt. Denn freie Unix-Varianten in Form von Linux nehmen mit der Zeit sämtliche Features an, die kommerzielle Betriebssysteme auch zur Verfügung stellen.

In diesem Auszug aus der englischen Fassung von “In the Beginning was... the Command Line” beschreibt Neal Stephenson auf seine einzigartige Weise den Stillstand als Fossilisation.

“By continuing to develop new technologies and add features onto their products they (Anm.: Betriebssystementwickler) can keep one step ahead of the fossilization process, but on certain days they must feel like mammoths caught at La Brea (Anm. der Teersumpf, in dem prähistorische Tierkadaver für die Nachwelt erhalten blieben), using all their energies to pull their feet, over and over again, out of the sucking hot tar that wants to cover and envelop them.”

In der jetzigen Situation bleibt Apple nicht im Teer des Stillstandes stecken. Nicht genug, dass Mac OS X in regelmäßigen Abständen neue Upgrades erhält, auch OS X Touch auf dem iPhone wird in Halbjahresschritten aktualisiert.

Leider ist das Unternehmen so geheimniskrämerisch, dass es Produkte erst dann ankündigt, wenn sie kurz vor der Fertigstellung stehen. Wir müssen alle abwarten, was die Zukunft mit sich bringt. Eines steht aber fest, es wird nervenzerfetzend interessant.

Forschungsausblick

Wohin soll sich Mac OS X und das herkömmliche Computerbetriebssystem entwickeln? Wenn es so schwer ist ein neues Betriebssystem zu schreiben, dann werden sämtliche Entwicklungen auf der Basis bestehender Systeme entstehen.

Einer jener Bereiche, die sich bereits so lange nicht mehr weiter entwickelt haben, dass wir sie einfach als gegeben hinnehmen, ist die Benutzeroberfläche. Aber auch Neues in Form der Architektur lässt sich erforschen.

1. Die eingefrorene Benutzeroberfläche

Als Steve Jobs noch CEO von NeXT war, kritisierte er Apples Versuche, gegen Microsoft gerichtlich vor zu gehen, weil das Unternehmen mit Windows die Benutzeroberfläche des Mac “gestohlen” haben soll. In den 80er-Jahren verklagte Apple Microsoft, weil Windows mit der Fenster-, Menü- und Maus-Bedienung das “look and feel” der Mac-Oberfläche emuliere. Jobs meinte dazu, dass so ein Verfahren sinnlos sei, weil früher oder später alle Computer so bedient werden.

Jobs sollte recht behalten, heutzutage werden sämtliche Desktop- und Notebook-Rechner mit nur wenigen Ausnahmen nach ähnlichen Prinzipien bedient. Gleich ob bei Windows, Mac OS, Linux oder bei Exoten wie MorphOS, die Schreibtisch-Metapher hat sich durchgesetzt.

Allerdings: Ist das gut? Immerhin ist die Metapher inkohärent und unlogisch. Da haben wir “Fenster”, “Laufwerke” und ein “Papierkorb” auf einem “Schreibtisch”. Darin befinden sich “Aktenordner”, die “Dateien” enthalten. Einige Dateien sind eigentlich “Dokumente”, die sich im Gegensatz zu Dokumenten im realen Leben auch verändern können, wo doch ein “echtes” Dokument etwas Unveränderliches ist.

Es ist eine Vermischung von technischen Notwendigkeiten (z.B. Dateisystem, Systemeinstellungen und Programme) und scheinbar einfachen Metaphern, die Komplexität zu kleinen Bildern reduzieren, diese aber nur notdürftig verstecken.51

Die Metapher hat bereits ein derartiges Eigenleben entwickelt, dass die unlogischen Analogien User scheinbar nicht mehr stören. In den letzten 20 Jahren hat sich die Benutzerschnittstelle moderner Betriebssysteme nur in kleinen Schritten weiterentwickelt. Von den 3D-Schnittstellen, die in den 80er-Jahren noch prognostiziert wurden, hat sich keine durchgesetzt. Einerseits liegt das daran, dass sich User an die bestehende Bedienung gewöhnt haben, andererseits bieten neue GUIs noch zu wenige eindeutige Vorteile. Auch hier schlägt die Regel zu, dass das Bestehende der größte Feind des Neuen ist.

Alternative Metaphern-Welten haben sich allerdings bereits herausgebildet. Allerdings entwickelten sich diese nicht auf herkömmlichen PCs, sondern auf Mobiltelefonen und PDA (Personal Digital Assistants) sowie ihrer logischen Weiterentwicklung, den Smartphones. Hier haben Benutzeroberflächen ganz andere Erfordernisse. Sie sind eingeschränkt durch kleine Bildschirme, kleine oder zur Gänze fehlenden Tastaturen, Eingabe über Touchscreens per Stift oder Finger und Endgeräten, deren Rechenleistung weit geringer ist, als der ihrer großen Cousins in der PC-Welt.

Dies ist ein dynamischer, interessanter und vor allem sehr ergiebiger Forschungsbereich. Hier hat Apple auch schon die eine oder andere Niederlage einstecken müssen, vor allem mit der Einführung des Newton Messagepad Anfang der 90er-Jahre.

Erst der PDA-Hersteller Palm hat die Touchscreen-Oberfläche mit seinem PalmPilot Ende der 90er-Jahren breitenwirksam gemacht. Parallel dazu hat das englische Unternehmen Psion teilweise versteckt, teilweise leider zu bescheiden innovative Wege im Kleincomputerbereich beschritten. Psion Serie 3 und Serie 5 erfüllen Aufgaben, zu denen nicht einmal vollwertige PCs einige Jahre zuvor in der Lage waren.

Vor allem Palm52 hat durch sein viel gerühmtes “Zen of Palm” dazu beigetragen, dass komplexe aber häufige Aufgaben mit möglichst wenig User-Interaktion abgewickelt werden können.

Wo aber besteht der Zusammenhang zu Mac OS X? Beim iPhone von Apple kam eine Variante von OS X zum Einsatz, die über eine völlig andere Benutzeroberfläche verfügt - die Multitouch-UI. Einige iPhone-Funktionen sickerten langsam ins “große” Mac OS X z.B. Gestures (hinein-zoomen indem man die Finger auseinander zieht).

Wo die Prinzipien der “herkömmlichen” Benutzeroberflächen stets besagten, dass einem Anwender immer bewusst gemacht werden soll, wo der Fokus seines Handelns liegt (Maus-Zeiger), was eine bestimmte Funktion macht (Menüpunkt, Scrollbalken usw.) und wo sich eine bestimmte Datei befindet (File explorer), werfen PDA- und Smartphone-Oberflächen solche Grundsätze völlig über Bord. Palm-Geräte haben bis zum Jahr 2001 kein für den Benutzer einsichtliches Dateisystem gekannt. Zudem versteckte Palm OS aus Platzmangel die Menüleiste. Apples iPhone stellt keine Fenster dar, sondern nur Anwendungen, die im Vollbildmodus arbeiten. Viele Funktionen (scrollen, zoomen, blättern), sind gar nicht offensichtlich, allerdings intuitiv - sobald der User sie einmal gesehen hat.53

Zudem hat sich in diesen “Mikro-Oberflächen” auch eine Entwicklung vollzogen. Dort wo früher ein Stift zur Eingabe verwendet wurde, kommen jetzt die Finger zum Einsatz. Wäre man kulturpessimistisch, dann könnte man meinen, dass Menschen das Schreiben mit dem Stift verlernen, deshalb auch nicht den Stift für die Eingabe auf einem Smartphone verwenden wollen...

Ganz gleich, wie man dazu steht. Endlich tut sich was auf dem Sektor der Benutzeroberflächen.

2. Mit 64-Bit, da fängt das Leben an

Die nächste Innovation, die auch vor Mac OS X keinen Halt gemacht hat, ist der Umstieg von 32-Bit- auf 64-Bit-Prozessoren.

Der Umstieg ließ sowohl auf dem Mac als auch unter Windows lange auf sich warten, weil es bis vor wenigen Jahren einfach noch nicht notwendig war. Die erzielten Vorteile konnten den Aufwand nicht rechtfertigen.

Der Umstieg von 8- auf 16-Bit war im Lauf der 80er-Jahre recht schnell vollzogen. Immerhin waren 8-Bit-Computer zu sehr eingeschränkt, was Speicher und Rechenleistung betrifft. Vor allem der maximal ansprechbare Hauptspeicher von 64 Kilobyte zwang Hersteller zum Umstieg. Aber auch mit 16-Bit-Prozessoren hielt man sich nicht lange auf. Diese konnten maximal 8 Megabyte an RAM ansprechen und wurden Anfang der 90er-Jahre von 32-Bit-Prozessoren (max. 4 Gigabyte RAM) abgelöst, die noch lange brauchten, um das volle Potenzial ihrer Entwicklung auszuschöpfen.

Erst als Rechner mit 2 oder gar 4 Gigabyte Hauptspeicher ausgeliefert wurden, begannen sich Betriebssystemhersteller Gedanken darüber zu machen, wie sie über diese Grenzen hinwegkommen konnten. Microsoft brachte eine eigene 64-Bit-Version von Windows heraus, die allerdings eigene 64-Bit-Programme und ebensolche Treiber benötigte, um die volle Leistung auszuschöpfen. Mac OS X war als weit jüngeres Betriebssystem von Haus aus so konzipiert, dass es mit 64-Bit-Software zurechtkommen konnte. Im Serverbereich waren 64-Bit-Versionen von Unix und Linux bereits seit langem im Einsatz.

Allerdings war auch die Notwendigkeit nicht gegeben, Speicherbrocken von mehr als 4 Gigabyte am Stück auf einmal zu bearbeiten. Alle anderen Operationen konnten schön in kleinere Speicherbrocken aufgeteilt werden. Erst mit dem Aufkommen von HD-Video und 10-Megapixel-Kameras wurde klar, dass herkömmliche Anwender sehr wohl derartig gewaltige Speichermengen manipulieren würden.

Die Erforschung dieses recht junge Bereichs der Betriebssystementwicklung steckt noch in den Kinderschuhen. Es wird interessant, welche Anwendungen sich des neuen Speicherüberflusses bedienen werden und welche neue Wege hier gegangen werden.

Netzwerke in den Wolken

Computer-Betriebssysteme wurden erstmals in den 90er-Jahren totgeredet. Da spekulierte der Server- und Betriebssystem-Hersteller SUN damit, dass Endanwender eigentlich nur einen “dummen” Terminal als Netzwerk-Rechner brauchen. Das Gerät sollte über wenig eigene Rechenleistung und bloß den aller nötigsten Speicher verfügen. Aufwändige Rechenoperationen sollten auf leistungsfähigen Servern ablaufen, wo auch die Daten aufbewahrt werden. Vor allem sollten diese Geräte kein “richtiges” Betriebssystem im herkömmlichen Sinne verwenden. Das hat sich nicht durchgesetzt.

Abgesehen von Datenschutzbedenken, die eine dezentrale Datenlagerung mit sich bringt, mag es Anwendern früher oder später tatsächlich ausreichen, “nur” über einen leistungsfähigen Browser zu verfügen und sämtliche andere Aufgaben im Web zu erledigen. Dies bedarf aber einer ausgefeilten Infrastruktur an Hochgeschwindigkeits-Datenleitungen und Diensten im Web. Zudem ist die Rechenleistung des lokalen Rechners für die meisten Aufgaben wie Grafikbearbeitung, Videoschnitt und Computerspiele immer noch jener verteilten Leistung von Serverfarmen überlegen54.

So lange Einzelrechner dem User bessere Dienste leisten als rein webbasierte Dienste wird es Betriebssysteme geben, die sich weiter entwickeln. Eines davon heißt Mac OS X.

Einzig der Name könnte sich für Apple als Problem erweisen. Eigentlich sollte das “X” für die römische 10 stehen, gleichzeitig deutet sie aber auch auf die Unix-Wurzeln des Betriebssystems. Was kommt nach 10? “X” klingt einfach zu cool, um durch etwas anderes ersetzt zu werden.

« Zum vorigen Kapitel | Zum Inhaltsverzeichnis | Zum nächsten Kapitel »

Separator line

Fußnoten (Ausblick):

42 Fukuyamas These wurde natürlich lange vor dem 11. September 2001 aufgestellt. Zurück

43 Die maschinelle Datenverarbeitung entspricht nur in ihren Grundzügen der heutigen elektronischen Datenverarbeitung. Die Hollerith-Lochkartenanlagen konnten zwar keine Berechnungen anstellen, sehr wohl aber große Mengen an standardisierten Daten sortieren und auch Abfragen ausgeben (z.B. alle linkshändigen Elektriker im Alter von 20 Jahren im Raum Baden-Württemberg). Zurück

44 Gerade die Arbeit von Konrad Zuse fällt hier ein wenig aus dem Rahmen, weil Zuse seine Rechner zwar in staatlichen Einrichtungen entwickelte, Nazi-Deutschland die Kriegsnotwendigkeit von “Elektronenhirnen” nicht erkannte und somit ihre Entwicklung nicht unterstützte. Zurück

45 Entwickelt an der Universität von Pennsylvania, finanziert von... der US-Army! Zurück

46 Lt. Frank Hartmann bezieht sich die erste Verwendung des Begriffs “Computer” nicht einmal auf eine Maschine, sondern bezeichnet menschliche Mathematiker, die in der Ballistik und im kaufmännischen Bereich große Mengen an Berechnungen händisch durchführten. Zurück

47 Obwohl das Internet sich bereits lange von seinen Wurzeln im militärisch/akademischen Arpanet verabschiedet hat, ist GPS eine rein militärische Technologie, die nur kulanterweise in einer ungenaueren Form für den zivilen Nutzen zugelassen ist. Zurück

48 Die USA hatten bei Elektronik, Kommunikations- und Computertechnik die Nase weit vorn. Die UDSSR war lange Zeit in der Raumfahrt und der Nukleartechnologie überlegen (trotz des späteren Reaktorunglücks in Tschernobyl). Zurück

49 Später zu DARPA (Defence Advanced Research Project Agency) umbenannt, weil es militärischer (und wahrscheinlich auch gefährlicher) klingt. Zurück

50 Diese Demonstration wird in Geek-Kreisen auch als “The Mother of All Demos” bezeichnet und ist auf YouTube noch zu sehen unter: http://www.youtube.com/watch?v=JfIgzSoTMOs (abgerufen am 3. September 2009). Zurück

51 Wieder muss ich Neal Stephensons poetisches Technologie-Essay “In the Beginning was... the Command Line” bemühen. Darin kritisiert er die Entmündigung der User durch grafische Benutzeroberflächen. Zurück

52 Ursprünglich ein Unternehmen des Modemherstellers US-Robotics, dann des Netzwerkanbieters 3Com und erst 2002 ein eigenständiges Unternehmen. Bereits diese Konzern-Irrfahrt sollte zum Niedergang des Unternehmens beitragen. Zurück

53 An dieser Stelle möchte ich auf meinen Essay “The 20 Year Itch - Multitouch als neues GUI-Paradigma” zum Thema Multitouch-Oberflächen und die sogenannte ZUI (Zooming User Interface), entstanden im Rahmen eines Seminars von Dr. Frank Hartmann an der Universität Wien verweisen: nachzulesen unter: http://www.marincomics.com/blog_6.html | Zurück

54 Cory Doctorow schrieb im englischen Guardian vom 2. September 2009 zum wahren Hintergrund des Cloud-Computings: “The main attraction of the cloud to investors and entrepreneurs is the idea of making money from you, on a recurring, perpetual basis, for something you currently get for a flat rate or for free without having to give up the money or privacy that cloud companies hope to leverage into fortunes.” http://www.guardian.co.uk/technology/2009/sep/02/cory-doctorow-cloud-computing (abgerufen am 4. September 2009). Zurück

Separator line

blog comments powered by Disqus
Weitersagen

In diesem Kapitel:

Valid HTML 4.01 Transitional Valid CSS!