Eine Pandemie verändert die Welt

Text
0
Kritiken
Leseprobe
Als gelesen kennzeichnen
Wie Sie das Buch nach dem Kauf lesen
Schriftart:Kleiner AaGrößer Aa

1 Der digitale Aufbruch

Jede neue Technik benötigt einen Auslöser für ihre breite gesellschaftliche Anwendung. Bei der Computertechnik war das die Erfindung des Mikroprozessors, die zu einem enormen Preisverfall führte.

Vor ziemlich langer Zeit, es war 1997, schrieb ich ein kurzes Programm, das E-Mail-Adressen aus einem elektronischen Diskussionsforum extrahierte. Die Software lief einen Nachmittag und ich erhielt eine Liste von 17.000 Adressen; nach Entfernung der Doubletten blieben knapp 9.000 übrig. Das war ziemlich viel.

Heute nutzt fast jeder die elektronische Postelektronische Post. Das Aufkommen hat sich seither ungefähr verhundertfacht1. Momentan gibt es 50 Millionen Nutzer in Deutschland2, 1997 waren es noch 500.000 Personen. Auf meiner Liste erschienen davon immerhin 1,8 Prozent. Dass es illegal ist, die Daten anderer Menschen ohne triftigen Grund zu sammeln, daran dachte damals niemand.

Was meinen Sie dazu?

Ist es bedenklich, anderen Menschen unerwünschte E-Mails zu senden? Es entsteht doch kein Schaden?

SpamSpam3 war noch unbekannt, das änderte sich nun. Ich tat mich mit drei Freunden zusammen, die mit mir am Institut für Epidemiologie an der Universität arbeiteten und wir hatten einen Plan: Wir wollten Fragen versenden und sehen, ob jemand antwortet. Unsere Idee war, die damals üblichen Umfragetechniken zu revolutionieren, denn wie uns aus der eigenen Arbeit sattsam bekannt war, machen Interviews oder Fragebogenaktionen auf Papier unglaublich viel Aufwand. Aber die Erhebung von Gesundheitsdaten der Bevölkerung gehörte zu unseren Hauptaufgaben. Eine digitale Umfrage ist da viel einfacher: Das Versenden geht schnell, ist praktisch kostenlos und die Antworten liegen bereits maschinenlesbar für die weitere Verarbeitung vor. Also entwarfen wir eiligst einen Fragebogen und versandten ihn am folgenden Werktag, einem Freitag. Ergebnis: Der Server der Uni war das ganze Wochenende komplett blockiert. Ich hatte deshalb am darauffolgenden Montag ein eher unangenehmes Gespräch mit dem Leiter unseres Rechenzentrums und wir wurden für kurze Zeit bekannt als die übelsten Schurken des Internets.

Aber wir hatten, was wir wollten: Erstaunlich viele Menschen antworteten und wir konnten das Ganze in einem wissenschaftlichen Artikel4 veröffentlichen. Nach meinen Informationen waren wir damit tatsächlich die Ersten, die (unerwünschte) Post elektronisch versendeten. Das Papier ist reichlich technisch geraten, da uns hauptsächlich die Methode interessierte und weniger die Ergebnisse. Aus heutiger Sicht sehr schade, denn die Resultate waren verblüffend.

Wir stellten folgende Fragen (ursprünglich in Englisch):

 Was sind die größten Probleme der Menschheit in den nächsten 10 Jahren? Auswahl: Umweltzerstörung, Überbevölkerung, Unterentwicklung, Klimaänderung, Kriege, religiöser Extremismus, Korruption und Infektionskrankheiten)

 Was könnte zur Lösung dieser Probleme beitragen? Auswahl: Alternative Energien, Computertechnik, Gentechnik und bessere Ausbildung

Geantwortet haben 20 Prozent, also 1713 Personen, eine gute Quote. Auf Erinnerungen oder Nachfassaktionen haben wir übrigens verzichtet, da wir nicht wollten, dass unser Ruf weiter leidet.

Die Antworten auf die erste Frage waren relativ gleichmäßig verteilt, wobei Umweltzerstörung, Gewalt, Unterentwicklung und Überbevölkerung die Spitzenplätze einnahmen. Die Befragten konnten sich offenbar nicht so recht auf ein Problem einigen. Bemerkenswerter sind die Antworten auf die zweite Frage: 71 Prozent (!) aller Teilnehmer waren der Meinung, dass die AusbildungAusldung der Menschen ein wesentlicher Grundpfeiler zur Lösung der anstehenden Probleme ist. Dabei gab es keinen Unterschied bezüglich der Heimatorte, dem Alter, dem Geschlecht und dem Beruf der Befragten.

Im Nachhinein weiß ich nicht, worüber ich mehr staunen soll: Darüber, dass die Methode so gut funktionierte, oder über das Ergebnis. 71 Prozent, das sind 1.216 Stimmen, ein klares Votum! Unwissen ist offenbar der größte Feind der menschlichen Zukunft.

Heute würde die Rücklaufquote viel geringer ausfallen, denn die Anwender haben sich längst an unerwünschte Werbung gewöhnt. Derartige E-Mails werden von Spamfiltern ausgesiebt oder sie landen im Papierkorb. Nur wenige würden direkt antworten, denn viele haben schlechte Erfahrungen gemacht. Ich kenne den Fall eines Forschers, der sich über eine anonyme E-Mail einen Virus eingefangen hat, der seine Adressenliste durchsuchte und die Daten dafür verwendete, in seinem Namen Mails zu versenden. Diese hatten zum Inhalt, dass er sich nach einem Raubüberfall mittellos im Ausland befindet und den Adressaten bittet, ihm Geld zu überweisen. Das war selbstverständlich gelogen und das Geld landete direkt auf den Konten der Gauner, die den Virus in Umlauf gebracht haben. Insgesamt betrug der Schaden über 15.000 Euro.

Die DigitalisierungDigitalisierung, also der Einzug der Digitaltechnik in alle Lebensbereiche des Menschen, hat eben nicht nur Vorteile. Es ist bequem, Informationen aus dem Internet zu beziehen statt aus einem Lexikon, aber sind die Quellen auch wirklich zuverlässig? Wir nutzen gerne die Kommunikation über soziale Netzwerke oder Videoportale, doch werden unsere Daten immer vertraulich behandelt? Spionieren uns digitale Sprachassistenten aus? Und: Werden wir einer seelenlosen Computermedizin ausgeliefert sein?

Was meinen Sie dazu?

Hat das Internet mehr Vor- oder Nachteile? Wurden ihr Leben und ihre Arbeit einfacher?

Wie es begann

Charles BabbageBabbage, Charles entwarf im frühen 18. Jahrhunderts den ersten frei programmierbaren Computer, der allerdings nie fertig gestellt werden konnte. Das tonnenschwere mechanische Ungetüm wäre 19 Meter lang und drei Meter hoch geworden und scheiterte an den noch nicht genügend ausgereiften feinmechanischen Fertigkeiten der Zeit und den immensen Kosten. Zu seinem Betrieb wäre eine ausgewachsene Dampfmaschine notwendig gewesen. Heute sind sich die Experten aber einig, dass die Analytical EngineAnalytical Engine vom Entwurf her korrekt war, obwohl ein endgültiger Beweis aussteht. Ada LovelaceLovelace, Ada, eine Mitarbeiterin Babbages, wird als die erste Programmiererin der Welt bezeichnet, denn sie schuf eine Eingabetabelle, die als erstes Programm gilt.

Dann vergingen 100 Jahre, bis Konrad ZuseZuse, Konrad den ersten programmierbaren Rechner fertig stellte. Zuses Lebenslauf ist bemerkenswert: Er absolvierte die Schule in Berlin und studierte Bauingenieurwesen. Nach Abschluss und kurzer Berufstätigkeit quittierte er seine Stelle bei einem Flugzeugbauunternehmen und überredete seine Eltern, in deren Berliner Wohnung einen Computer bauen zu dürfen. Was er dann auch tat.

Der Fall ist erstaunlich: Er schaffte mit Mühe und Not sein Studium. Die Eltern waren froh über die sogleich ergatterte Arbeitsstelle. Wir schreiben das Jahr 1935. Es war kurz vor dem Zweiten Weltkrieg. Kaum hat er mit seiner Arbeit begonnen, kündigte er. Für die Eltern ein Schock. Ein zweiter folgte: Nun begann er, im elterlichen Wohnzimmer einen Computer zu bauen. Stellen Sie sich einmal vor, wenn Sie das Nachbarskind frägt, ob es in Ihrer Garage ein Raumschiff zusammenschrauben darf. Ich vermute, dass Zuse mit seinen Eltern viel Glück hatte.

Die rein mechanische Z1 rechnete nur langsam und unzuverlässig, sie war daher nicht recht brauchbar. Ein späterer Bombenangriff zerstörte sie vollständig. Zuse ließ sich nicht entmutigen und entwickelte die Z2. Für diese Maschine sammelte er zunächst 200 elektrische Schalter (Relais) von verschiedenen Telefonfirmen, was damals nicht einfach war. Die Z2 war simpler aufgebaut und nicht frei programmierbar, hatte aber durch den Einsatz der Relais den Vorteil der wesentlich größeren Zuverlässigkeit. Auch sie ging im Krieg verloren. 1941 stellte Zuse dann zusammen mit Helmut Schreyer die Z3 fertig und das war nun wirklich der erste voll funktionsfähige programmierbare Computer dieser Welt. Allerdings wurde auch sie durch Bomben vernichtet. Aber da gab es noch die Z4, die Zuse während der letzten Kriegsjahre begonnen hatte, und die konnte er retten. 1950 vermietete er diese Maschine an die Eidgenössische Technische Hochschule in Zürich und damit war Zuse auch so etwas wie der weltweit erste Computerhändler. Die Konkurrenz hinkte hinterher: Der Vertrieb der amerikanischen ENIAC begann erst einige Monate später.

Zuses Z3 steht als funktionsfähiger Nachbau im Deutschen Museum. Dort befindet auch die originale Z4, die in schlechtem Zustand über diverse Umwege nach München kam. Ende der 90er-Jahre des letzten Jahrhunderts hat Zuse mit Mitarbeitern und jungen Wissenschaftlern versucht, sie wieder zum Laufen zu bringen. Ich war damals Student und hatte Gelegenheit, ihn bei der Arbeit zu beobachten. Es stand inmitten seiner Rechner wie ein menschliches Ausstellungsstück; dabei studierte er riesige Schaltpläne, die verdächtig nach Bauzeichnungen aussahen und kaum auf einen Konferenztisch passten. Ich war schwer beeindruckt.

Er hat es leider nicht zu Ende gebracht. Die Z4 funktioniert immer noch nicht und wird es wohl auch nie wieder tun. In ihr sind 2.200 elektrische Schalter verbaut und es grenzt an ein Wunder, dass die Maschine jemals arbeitete. Zuse hat aus der Erfindung übrigens keinen großen kommerziellen Nutzen ziehen können; bereits 1956 wurde die Zuse KG übernommen. Aber er blieb bis zu seinem Lebensende aktiv der Informatik verbunden. Wie bedeutsam sein Einfluss auf künftige Entwicklungen war, geht aus der Gedenktafel hervor, die in Berlin-Kreuzberg in der Methfesselstraße 7 angebracht ist:

 

In den kriegszerstörten Häusern

Methfesselstraße 10 und 7

entwickelte und baute Konrad Zuse von 1936 bis 1944

die programm-gesteuerten Rechenanlagen Z1 bis Z4.

1941 ging der Rechner

Zuse Z3

als erster funktionsfähiger Computer

der Welt in Betrieb.

Danach beschleunigte sich die Entwicklung und etliche tonnenschwere Computerungetüme wurden gebaut. Sie füllten ganze Hallen, hatten den Stromverbrauch einer Kleinstadt und benötigten ein eigenes Serviceteam, um funktionsfähig zu bleiben. Grace HopperHopper, Grace, ebenfalls eine frühe Computerpionierin, fand bei einer Kontrolle einer ausgefallenen Einheit eines Großrechners eine Motte zwischen den Kontakten. Das Tierchen hatte sich in die Tiefen des Rechners verirrt und blockierte ein Relais. Hopper, die als Offizierin der US-Armee nicht zimperlich war, entnahm das Insekt und befestigte es mit Klebeband im Wartungsbuch der Maschine. Darunter schrieb sie: „First actual case of bug being found“, womit der Bezeichnung BugBug für einen Computerfehler geboren war. Hopper wurde ebenfalls eine Berühmtheit, allerdings nicht wegen der erwähnten Namensfindung. Sie hatte die Vision, dass Computer einfacher zu programmieren sein müssten als durch das Setzen einzelner Signale mit einer Unmenge von Schaltern. So entwickelte sie den Compiler, eine Art Übersetzer ist zwischen menschlicher Sprache und Maschinenbefehlen.

Wissen | Computer und Medizin

Diese frühen Computer wurden von Anfang an auch für die medizinische Forschung verwendet. In den USA wurden sie für Volkszählungen eingesetzt, bei denen auch gesundheitsrelevante Daten erhoben wurden. In Europa liefen schon früh epidemiologische Auswertungen, um beispielsweise Krebsregister zu schaffen. Auch die Simulation von infektiösen Erkrankungen wurde schon früh simuliert; die gefundenen Ergebnisse ließen sich dann spätestens mit Einsetzen der AIDS- bzw. HIV-Welle verifizieren. Die eingehende Erforschung von Pandemien wäre wegen der vielen zu erfassenden Parametern ohne Computereinsatz nicht denkbar.

1969 betraten das erste Mal Menschen den Mond. Das war eine technische Meisterleistung, denn wie sollte man eine Raumkapsel über Millionen von Kilometern an einer festgelegten Stelle landen, ohne abzuweichen oder das Ziel ganz zu verfehlen? GPS war noch nicht erfunden und auf dem Mond würde es auch nicht funktionieren.

Während der amerikanischen Planungen zur Mondlandung umrundete die russische Mondsonde Lunik 3 den Trabanten und sandte Bilder von seiner Rückseite zur Erde. Frank Forman, William Anders und James Lovell umkreisten den Mond dann mit Apollo 8 zehnmal, ohne zu landen. Sie waren die Ersten, die „the dark side of the moon“ mit eigenen Augen sahen. Die Aussicht muss gespenstisch gewesen sein: wegen des Mondschattens keinerlei Funkkontakt, die Finsternis des Alls und die von der Sonne fahl erleuchtete Mondoberfläche.

Beim Umrunden muss man nicht viel navigieren, denn das Raumschiff kreiste von allein wie ein Satellit um den Mond. Bei Hin- und Rückflug konnte die Position mit Teleskop und Sextant festgestellt werden. Landen ist da schwieriger, denn es sollte schon bekannt sein, wo die Kapsel aufsetzt. Der NASA kam die Tatsache zugute, dass der Mond gegenüber der Erde keine Eigendrehung aufweist. Daher ist es über Funkleitstrahlen machbar, die Abweichung der Landefähre vom festgelegten Kurs genau zu bestimmen. Aber wegen der langen Kommunikationsdauer durch die großen Entfernungen musste es möglich sein, zumindest die wichtigsten Berechnungen vor Ort anstellen zu können, denn eine Steuerung von der Erde aus wäre viel zu träge gewesen. Deshalb wurde eigens ein völlig neuartiger Bordcomputer entworfen und gebaut.

Der AGC (Apollo Guidance ComputerApollo Guidance Computer) ist in zweifacher Hinsicht ein Meilenstein: Er stellt den endgültigen Durchbruch der Digitaltechnik dar, außerdem ist er ein frühes Wunder der Miniaturisierung, wurden doch alle Röhrenbausteine durch die damals brandneuen Transistoren ersetzt. Er wog 32 kg und war nur etwa so groß wie zwei Aktentaschen.

Heute wird oft behauptet, dass ein normaler Taschenrechner mehr Rechenkapazität hätte als der AGC. Aber versuchen sie einmal, mit Hilfe eines Taschenrechners und einigen Funksignalen ihre Position zu bestimmen! Selbstverständlich ist der AGC langsam, wenn er ausschließlich Logarithmen oder Integrale ausrechnen soll. Aber er konnte viel mehr: Er steuerte Navigationsfunktionen des Raumschiffs automatisch, ermittelte dessen Position und sammelte und speicherte wichtige Fluginformationen. Seine Benutzerschnittstelle bestand nur aus 19 Tasten, 14 Kontrolllämpchen und einem sechszeiligen Display, das nur fünf Ziffern pro Zeile darstellte. Alles war da, was benötigt wurde und nicht mehr, er war perfekt eingebettet in seine Aufgabe.

Gibt es einen ‚Einstein der Informatik‘, ein zentrales Genie in den Computerwissenschaften? Wenn jemand diesen Titel verdient, dann ist es Alan TuringTuring, Alan. Er war als junger Mann im Zweiten Weltkrieg Mitarbeiter der britischen militärischen Dienststelle am Bletchley Park, die sich mit der Entzifferung der deutschen Funksprüche befasste. Die Wehrmacht verwendete eine Verschlüsselungsmaschine namens Enigma, die zwar einfach aufgebaut war, aber trotzdem eine große Zahl von Verschlüsselungscodes zuließ. Die Alliierten erbeuteten mehrmals eine solche Maschine, es gelang ihnen aber nicht, die damit verschlüsselten Nachrichten zu entziffern. Die Enigma konnte abhängig vom Geheimcode, der täglich gewechselt wurde, einzelne Buchstaben, Satzzeichen und Ziffern durch andere ersetzen. In ihrem Inneren war ein mechanisches System mit einstellbaren Kodierwalzen installiert, das elektrische Signale verschaltete. Man stellte den Code ein, indem man die Walzen verdrehte, drückte eine Taste der Schreibmaschinentastatur und als Ergebnis leuchtete ein Lämpchen mit dem zugeordneten Buchstaben auf. Das funktionierte in beide Richtungen zum Ver- und Entschlüsseln. Aber es gab ein Problem: Es war unmöglich, ein Zeichen mit sich selbst zu verschlüsseln, weil das bedingt durch die Konstruktion zu einem Kurzschluss geführt hätte. Das war die große Schwachstelle des Systems. Das Team im Bletchley Park konnte zusammen mit der Häufigkeitsverteilung der Buchstaben in der deutschen Sprache eine Maschine entwerfen, die abgehörte Nachrichten innerhalb einiger Stunden entschlüsselte. Jetzt war es möglich, Begleitzüge auf hoher See vor feindlichen U-Booten zu warnen und die U-Boote selbst zu bekämpfen. Um das Geheimnis der neuen Abhörmöglichkeiten zu wahren, schickten die Alliierten einige Male auch eigene Soldaten bewusst ins gegnerische Feuer. Es waren dunkle Zeiten. Die Nazis ahnten aber bis zum Schluss nichts und es ist sehr wahrscheinlich, dass durch das Knacken der Enigma eine atomarer Angriff auf Deutschland verhindert wurde. Man wusste, dass das Land am Ende war und konzentrierte sich auf das unglückliche Japan.

Turing verdient den Titel des bisher größten Genies der Informatik aber vor allem wegen seiner Verdienste um die Theorie der Berechenbarkeit. Er konstruierte im Gedankenexperiment eine Rechenmaschine, die sehr einfach ist: ein langes Papierband, das von einem Schreib-/Lesekopf beschriftet und gelesen wird, ergänzt von einigen elementaren Rechenoperationen. Das Besondere: Turing bewies mathematisch exakt, dass mit seiner Turing-MaschineTuring-Maschine alle berechenbaren Aufgaben gelöst werden können.5

Das ist beachtlich. Wenn das Band lang genug ist (und genügend Zeit vorhanden), dann genügt die simple Maschine vollkommen für alle Aufgaben, die überhaupt berechnet werden können. Turing schuf damit ein Konstrukt, das die vollständige theoretische Basis aller existierenden Computer darstellt. Wir müssen uns nicht mit Megahertz, Speichertechnologien und Programmiersprachen herumschlagen, wenn wir wissen wollen, ob ein Problem gelöst werden kann oder nicht. Wenn es lösbar ist, dann genügt ebenso die Turing-Maschine (mit genügend Zeit) und umgekehrt. Wenn ein Problem nicht von der Turing-Maschine gelöst werden kann, dann geht das es auch mit keinem anderen Hilfsmittel.

Quintessenz

Zur Mitte des 20. Jahrhunderts standen praktisch alle theoretischen Grundlagen herkömmlicher Computer fest.

Die Welle

Wir schreiben das Jahr 1971 und Transistorrechner lösen die Röhrencomputer ab, die zuvor die (Elektro-)mechanischen EDV-Anlagen ersetzten. Computer füllen immer noch Wandschränke, benötigen tausende Watt an elektrischer Leistung, sind immer noch langsam und vor allem immer noch sehr teuer. Aber in der Firma Intel im kalifornischen Städtchen Mountain View kündigt sich die nächste Revolution an. Dort brüteten die Ingenieure Frederico FagginFaggin, Frederico, Marcian HoffHoff, Marcian, Stanley MazorMazor, Stanley und Masatoshi SbimaSbima, Masatoshi über der jüngsten Herausforderung ihres Jobs. Sie sollen einen Baustein entwerfen, der Rechenmaschinen effektiver und preiswerter macht. Ihr Arbeitgeber ist Zulieferer zweier japanischer Firmen, die solche Geräte bauten.

Es war nicht gerade spannend, den x-ten Baustein für eine Rechenmaschine zu konstruieren und die vier waren nicht gerade motiviert. Aber sie hatten eine Idee. Damals war die Technik des integrierten SchaltkreisesIntegrierte Schaltkreise (ChipChip) bereits bekannt. Hier werden verschiedene Halbleiter in einem gemeinsamen Miniaturgehäuse untergebracht. Es wäre doch einen Versuch wert, einen kompletten Computer in eine solche Form zu bringen?

Unerwarteter Weise hatten sie Erfolg. 4.000 Transistoren im integrierten Schaltkreis reichten aus. Es gab einige Einschränkungen, aber Intel meldete: „Wir verkünden eine neue Ära in der integrierten Elektronik.“ Das war keineswegs übertrieben. Der MikroprozessorMikroprozessor war geboren, ein Computersystem in einem einzigen elektronischen Bauteil.

Der 4004 verhält sich grundsätzlich nicht anders als gewöhnliche Computersysteme. Aber der Baustein war winzig und vor allem sehr preiswert. Buchstäblich über Nacht begannen Leute, Computer in Gebieten einzusetzen, bei denen das vorher aus Kostengründen undenkbar war. Der Homecomputer wurde erfunden und in Elektronikzeitschriften wurden für Hobbybastler Computermodule angeboten. Die sahen schwer nach nackter Elektronik aus und die stolzen Besitzer mussten sich um Netzteil oder Gehäuse selbst kümmern.

Die Zeitschriften für Elektronik mutierten zu Computerzeitschriften, die Programme von Anwendern in Textform veröffentlichten, die mühsam per Hand eingetippt wurden. Kein Mensch kam auf die Idee, für Computerprogramme Geld zu verlangen. Alles Benötigte wurde selbst programmiert und vermeintlich ‚einfache‘ Programmiersprachen wie BasicBasic sollten dabei helfen. So machten sich erst tausende, dann Millionen von Heimanwendern daran, mit den liebevoll Kisten genannten Geräten etwas Vernünftiges anzustellen.

Die Entwicklung des Mikroprozessors ist der eigentliche Startpunkt der DigitalisierungStartpunkt der Digitalisierung, denn erst durch die breite Verfügbarkeit von günstiger Technik konnte sie Fuß fassen. Seither vergingen fast 40 Jahre. Heute gibt es keinen Bereich des täglichen Lebens mehr, in dem Computer nicht eine entscheidende Rolle spielen.

Wissen | Computer und Medizin heute

Auch in der Medizin ist ihr Einsatz nicht mehr wegzudenken. Ein Großteil der Dokumentation findet mittlerweile digital statt. Der Rechner wird auch als Kommunikationswerkzeug genutzt, wie beispielsweise in der Telemedizin. Auch computertomografische Aufnahmen wären ohne Computer nicht möglich, wie der Name bereits verrät. Daneben etablieren sich Expertensysteme und automatische Diagnosehilfsmittel, die künftigen Ärztinnen und Ärzten das Leben erleichtern werden. Besonders die mobilen Systeme ermöglichen zudem den schnellen Datenaustausch, was beim Einsatz gegen eine Pandemie sicher eine wichtige Rolle spielt.

Quintessenz

Computer haben einen prinzipiell einfachen inneren Aufbau, der schon in der ersten Hälfte des vergangenen Jahrhunderts bekannt war.

Die Entwicklung der Computertechnik erfolgte hauptsächlich durch Skalierung der Systemquantität.

Die Miniaturisierung und damit verbundene Kostensenkung ermöglichten eine weite Verbreitung der Technologie. Das eigentliche Computerzeitalter brach mit der Erfindung des Mikroprozessors an und ist bis heute nicht beendet.

 

Sie haben die kostenlose Leseprobe beendet. Möchten Sie mehr lesen?