Kategorien
Bücher Drogenpolitik Elektronische Kultur Gesundheitssystem Mixed Projekte

Jörg Auf dem Hövel – Artikel Sitemap

 

/  Sitemap www.joergo.de bzw. www.aufdemhoevel.de Jörg Auf dem Hövel – Artikel zu Technik und Kultur – Eingangsseite Die Protestbewegung der 60er Jahre (I) Die Protestbewegung der 60er Jahre (II) ARGYREIA NERVOSA Ayahuasca Analoge Betel – Kaulust Sexy Betel – Über den Betel-Boom auf Taiwan Dieter Bohlen seine Wahrheit DU 782 – Lexikon der verschwindenen Dinge: Die Contenance DU 782 – Lexikon der verschwindenen Dinge: Die Telefonzelle.pdf Damania Ephedra Das kleine Graslexikon Das kleine Haschischsorten – Lexikon Interview_Kathrin_Spielvogel-GRAZIA.pdf Internet für Alle: Keep It Simple and Stupid KETAMIN Mimi und der Kifferwahn – Anti Marihuana Krimis der 50er Jahre Lactucarium TEUFELSDROGEN DIE PFEIFENKRITIK Wie der Staat mit Cannabis umgehen kann Die Mär vom Hirndoping – Rheinischer Merkur (pdf) Schlafmohn – Papaver somniferum Yohimbe Absinth- Der Fusel kehrt zuürck Abstinenz – von der christlichen Idee zur Richtlinie der Politik Ätherisches Hanföl Im krisengeschüttelten Afghanistan wird wieder Haschisch produziert Das Ende der Akzeptierenden Drogenarbeit? Der LSD-Entdecker Albert Hofmann verstarb im Alter von 102 Jahren Alkohol Amazon wächst mit skalierbarer IT Des Apfelmanns knorrige Hände packen den Boskop Drogenpolitik in Arizona Ashwagandha Urlaub und Cannabispolitik in Australien Der Autor Ayahuasca kommt vom brasilianischen in den Großstadtdschungel. Mit Alex Jolig und Sam auf den Azoren Bananenschalen rauchen? High werden? Junggesellen und Haschisch- Graf von Baudissin plaudert drauf los Bayerischer Haschisch – eine wahre Geschichte Ein Haschischrausch im Sommerloch Eine satyrische Bilanz zur hundertsten Ausgabe des Magazin „Hanfblatt“ blond – hunter s. thompson (pdf) blond 7/2002 – kelly trump (pdf) blond 100 (pdf) Aspekte der Sicherheit von E-Mail – Business Online 10/1997 An den kryptographischen Schlüsseln scheiden sich die Geister – Business Online 6/1998 Angst vor Piraterie, aber der Umsatz steigt, Business Online 7/1998 Horst Bossong: “Wir nutzen nicht das, was in den Drogen steckt” Interview mit dem A. Bredenfeld vom AiS, RoboCup Der Kongreß tanzt im Geist von Wolfgang Neuss Sohn von britischen Innenminister handelte mit Cannabis Rodney Brooks und die Maschinenmenschen Bungee Sprung vom Hamburger Fernsehturm Butandiol – GHB Die Cannabinoide und ihre Empfänger im Körper werden zu einem wichtigen Geschäft der Pharma-Industrie Cannabinoid Forschung Ein Vergleich der giftigen Inhaltsstoffe von Tabak und Marihuana Vom Mut kranker Menschen – Cannabis als Medizin Cannabis und die Lunge Das Ying und Yang der Cannabis-Psychose Die Macht der Pharma-Portale erbost das Kartellamt – Spiegel Online v. 15.10.2008 Viel THC, aber auch Pilze im Coffee-Shop Cannabis Computerspiele und Suchtgefahr Die IT-Architektur von Sabre (pdf) Costa Rica: „I make you good price, man“ Durch den Regenwald von Costa Rica Scientology im Cyberspace, ct 3/1996 Key Escrow, Computer Zeitung Ich, nur besser. Über Gehirndoping, Der Freitag v. 8. Juli 2010 Das Dilemma mit den neuen „Designerdrogen“ Chinas Gegner – Robert Enke und der Hundefellhandel Hünengräber, Langbetten, Dolmen: Auf Urkult-Tour in Norddeutschland Nun werden die Doping-Fabrikanten kreativ : Militante Mittel für Medaillenspiegel Drogen und Drogenpolitik – Texte von Jörg Auf dem Hövel und AZ Drogenklassifikationsversuche Was Drogentests leisten E-Mail-Sicherheit, Deutsches Allgemeines Sonntagsblatt v. 06.02.1998 Die Sprache setzt sich als Schnittstelle zwischen Mensch und Computer durch, Deutsches Allgemeines Sonntagsblatt v. 20.03.1998 Wohin mit den E-Mails von Schriftstellern?, DU, Nr. 752, Heft 11/2004 Die IT-Architektur von Ebay, Computerwoche, 18/2005 Die europäische Drogen-Beobachtungsstelle legt ihren Bericht für 2007 vor Durchatmen für Europas Kiffer Auge zu, Bussgeld oder Gefängnis Feiner Rohstoff – Der Journalist und Autor Jörg Fauser Das Pinguin-Imperium hat längst den Mittelstand erreicht, Frankfurter Allgemeine Zeitung, 28. Februar 2006 RFID in der Warenwelt, Frankfurter Allgemeine Zeitung v. 19.10.2004 Spam: Die digitale Plage, Frankfurter Allgemeine Zeitung, 15. Juli 2003 Nur ein wenig Verschlüsseln ist schwierig, Frankfurter Allgemeine Zeitung vom 17.02.1998 Wem gebe ich meinen Schlüssel?, Frankfurter Allgemeine Zeitung v. 10.12.1996 Kiffen und Kiffer im Film Der Fliegenpilz – Ein Ausstellungsbesuch mit Wolfgang Bauer Amand Freiherr von Schweiger-Lerchenfeld FRESSFLASH Deep Fritz vs. Vladimir Kramnik, Frankfurter Allgemeine Zeitung v. 08.10.2002 Rezension: Robert Levine, Financial Times Deutschland(pdf) Kotzende Kiffer, durchgeknallte Diebe, pöbelnde Polizisten: 20 Jahre als Head-Shop-Besitzer Gastronomie-Tipp: Bergwolf Gastronomie-Tipp: Favorit Bar Gastronomie-Tipp: Monofaktur Gastronomie-Tipp: Negroni Bar Texte zur Gesellschaft Ginkgo biloba als Gedächtnisturbo? Welt am Sonntag v. 05.09.2009 GINSENG – EIN STECKBRIEF Die IT-Architektur von Google, Computerwoche, 20/2005 Container unter GPS-Kontrolle, FAZ vom 16.09.2003 Inselhopping auf den Kykladen Grohe – Die Mysterien des Haschisch Growing Area Der Aletsch Gletscher schmilzt, Hamburger Abendblatt (pdf) Die Erforschung psychedelischer Fische ist noch nicht über die Verbreitung von Mythen hinaus gekommen Hamburger Dialog 2003 Ja, Mann, heute ist Hanffest Kinderbuch Projekt: Zwei Kühe wollen heilige werden Oxytocin Historische Texte Hier nun eher Humor Angst und Schrecken mit Hunter S. Startseite – Artikel zu Technik und Kultur Warnung, Tarnung, Mimikry – Indoor-Anlagen Das Inferno Rennen in Mürren Interview mit Günther Amendt über Doping und die Pharmakologisierung des Alltags Interview mit Baba Rampuri Interview with Baba Rampuri Interview mit Gundula Barsch Interview mit Amon Barth Interview mit Jerry Beisler über den Haschisch-Trail und darüber hinaus Interview mit Ronald „Blacky“ Miehling Interview mit Mathias Bröckers Interview mit Jonathan Ott Interview with Jonathan Ott (EN) Interview mit Frank Zander von der Cannabusiness Interview mit dem Buchautoren Hans-Christian Dany über die Rolle von Amphetamin in der modernen Gesellschaft Interview mit Rick Doblin von MAPS Interview mit dem Kognitionsforscher John-Dylan Haynes Interview mit Mathias Erbe Interview mit dem Pharmazeuten Manfred Fankhauser Interview mit Ken Goffman aka R.U. Sirius über sein Buch Countercultures trough the Ages Interview mit Stefan Keuchel über Google, Blogs und Gut sowie Böse Interview Lester Grinspoon Interview mit Charles Grob Interview with Charles Grob Interview mit Franjo Grotenhermen Interview mit Franjo Grotenhermen Interview mit Jon Hanna über die neuen Entwicklungen auf dem Gebiet der unerforschten Substanzen Interview mit dem Suchtforscher Andreas Heinz, Direktor der Klinik für Psychiatrie der Berliner Charité Interview mit Tilmann Holzer über die Geschichte des Cannabis-Verbots und dem Ausweg aus der Sackgasse der Drogenpolitik Interview mit dem Hanf-Forscher Michael Karus Interview mit James S. Ketchum über chemische Kriegsführung Interview mit Martin Krause Cannabis im Straßenverkehr Interview mit dem Suchttherapeuten Helmut Kuntz Interview mit Bruno Martin Interview mit Nana Nauwald Interview mit dem Philosophen Oliver Müller über chemo- und neurotechnologische Umbaumaßnahmen an Körper und Geist Interview mit Joseph R. Pietri dem König von Nepal Interview mit Christian Rätsch Interview mit Michael A. Rinella über Plato, das Symposion und die philosophischen Ursprünge moderner Drogenpolitik Interview with Michael A. Rinella about Plato and the Pharmakon Interview mit Carsten Schäfer, Autor der Max-Planck Studie über Cannabiskonsum und Strafverfolgung in der Bundesrepublik Interview mit Stephan Schleim über das Gedankenlesen Interview mit dem Psychiater Eckart Schmidt Interview mit Daniel Siebert, dem weltweit führenden Experten für Salvia divinorum Interview mit Daniel Siebert, dem weltweit führenden Experten für Salvia divinorum Interview mit Renate Soellner Autorin der Studie „Abhängig von Haschisch?“ Interview mit Wolgang Sterneck Interview mit dem Bremer Suchtforscher Heino Stöver Interview mit dem Coffee-Shop-Veteran Nol van Schaik Interview mit Henning Voscherau über synthetische Opiate vom Staat und die erreichbaren Ziele der Drogenpolitik Interview mit dem visionären Künstler Fred Weidmann Interview mit Psychologen Wulf Mirko Weinreich über das Bewusstseinsmodell von Ken Wilber und die Zukunft der Drogenkultur Interview mit Hans-Georg Behr Interview mit Hans-Georg Behr II Interview mit Claudia Müller-Ebeling Interview mit Hans Cousto von Eve & Rave Interview mit Roger Liggenstorfer Interview mit Gerhard Seyfried Interview mit Wolf-Dieter Storl Interview mit Sven Meyer Interview mit Professor Sebastian Scheerer Interview mit dem Kriminologen Sebastian Scheerer II Interface 5 Selbstkontrolle statt Zensur Big-Brother Award, Internet World 1/2000 Belauschen die USA die Top-Secret-Kommunikation vieler Regierungen?, Internet World 1/99 Gehört der Schlüssel zum Schlüsseldienst?, Internet World 3/98 Das weltweite Lauschsystem Echelon hört das Internet ab, Internet World Vom Mythos zur Realität: Der Große Bruder hört mit Enfopol, Internet World 8/99 Kanada leidet trotz zahlreicher Proteste weiterhin unter der Cannabis-Prohibition Kawa Kawa Beste Trompete in der deutschen Blaskapelle Die Kiffer Typen Typologisierung – Der Schläfer Die Kiffer Typen Typologisierung – Der Dauerkiffer Die Kiffer Typen Typologisierung Die Kiffer Typen Typologisierung – Der Sexmuffel Die Kiffer Typen Typologisierung Die Kiffer Typen Typologisierung – Der Esoteriker Die Kiffer Typen Typologisierung Die Kiffer Typen Typologisierung – Der Künstler Die Kiffer Typen Typologisierung Wie man aus dem Kino herausgeführt wird Deutschlands Küsten werden sich auf den Klimawandel einstellen muessen Klippel – Haschisch und Haschaschin aus den „Aegyptische Skizzen“ Koerperwelten Koffein – Ein Streckbrief Die schwarze Welle – Der Kaffee- und Kaffeehaus-Boom Kokain – Eine Kontroverse Mal ganz unten, mal ganz oben, aber immer: Kokain Das Haschischschmuggel-Museum in Alexandrien – E. Koller (1899) Krähenaugen LAN-Wahn Die Hand an der Knüppelschaltung Cannabis und Straßenverkehr Grenzüberschreitend übers Ziel hinaus, Timothy Leary Legal – aber wie? Das Wunder von Lengede, Berliner Zeitung v. 8. November 2003 OHNE LICHT LÄUFT GARNIX LSD Männer und Rausch Malana Power Project Fincahotels im Hinterland: Das andere Mallorca Golfplatz-Einweihung mit Manni Kaltz Zusammen gekniffene Ärsche Modafinil, die Firma Cephalon und ein Selbstversuch Welche Musik macht den besten Sex? Marihuana Mythen, Marihuana Fakten: Übersicht Marihuana Mythen Teil 1 Marihuana Mythen 10: „Immer mehr Menschen werden wegen Marihuana-Konsum ins Krankenhaus eingeliefert“ Mythos 11: „Marihuana verursacht das Amotivationssyndrom“ Mythos 12: „Marihuana ist eine der Hauptursachen für Unfälle im Straßenverkehr“ Mythos 13: „Marihuana ist eine Einstiegsdroge“ Mythos 14: „Die Cannabispolitik der Niederlande ist gescheitert“ Marihuana Mythen 15: „Mythen kommen und gehen: Die Zusammenfassung“ Marihuana Mythen – Teil 2: Die Potenz von Marihuana ist über die Jahrzehnte wesentlich angestiegen Marihuana Mythen Teil 3 Marihuana Mythen Teil 4 Marihuana Mythen – Teil 5 – Cannabis schwächt das Immunsystem “Mythos 6: Marihuana beeinflußt den sexuellen Reifeprozeß und die Fähigkeit zur Fortpflanzung” Mythos 7: „Marihuana-Konsum während der Schwangerschaft schadet dem Fötus“ Marihuana Mythos 8 – „Marihuana verursacht Hirnschäden“ Marihuana Mythen 9: „Marihuana macht süchtig“ Engelstrompeten und andere Nachtschattengewächse Experimental Tourism in New York Öffentlicher Raum und Shopping-Malls, telepolis, 28.11.2003 Freie Software soll den Markt revolutionieren, Frankfurter Allgemeine Zeitung v. 21.03.00 Das Ying und Yang der Cannabis-Psychose Cannabis in Osteuropa Ottensen III Oxy – orientalischer Mohn Oxytocin Zwischen Mode und Tierschutz Etwas schief ins Leben gebaut, Hamburger Abendblatt vom 8. Dezember 1999 Wie mich jede Frau rumkriegt Ideen des Königlich Sächsischen Bezirksarztes Dr. F.R. Pfaff (1864) Interview mit Prof. Dr. Rolf Pfeifer Mit dem Sachverständigen Harry Käding in die Pilze Pilze Placebos: Warum der Schein besser wirkt als nichts, DIE WELT, 11.Juli 2008 Gastronomie Tip Restaurant Roma Gastronomie Tip Restaurant Cuore Mio Projekte Was für ein Dope-Freak bist Du Nützliche Varianten – Wie der Staat mit Cannabis umgehen sollte Reise und Natur: Länder, Menschen, Orte Die Weltreligionen und ihr Verhältnis zum Rausch – Der Buddhismus Die Weltreligionen und ihr Verhältnis zum Rausch – Die Christen Die Weltreligionen und ihr Verhältnis zum Rausch – Der Hinduismus Die Weltreligionen und ihr Verhältnis zum Rausch – Der Islam Die Weltreligionen und ihr Verhältnis zum Rausch Chemie-Apotheken müssen schließen Rezension AILO – Concepts Rezension Arno Adelaars, Christian Rätsch, Claudia Müller-Ebeling: „Ayahuasca. Rituale, Zaubertränke und visionäre Kunst aus Amazonien.“ Rezension Bommi Baumann: Rausch und Terror Rezension Detlev Briesen: Drogenkonsum, Drogenpolitik, Deutschland, USA Rezension Broeckers/Liggenstorfer: Albert Hofmann und die Entdecktung des LSD Rezension Harry G. Frankfurt – Bullshit Rezension Andreas Rosenfelder- Digitale Paradiese Rezension DJ Elbe – Sand Pauli Rezension T.C. Boyle – Drop City Rezension zu Fellner/Unterreiner: Morphium, Cannabis und Cocain Thomas L. Friedman will beschreiben, wie sich der Westen auf die Globalisierung einstellen muss Rezension Pinchbek – 2012: Die Rückkehr der gefiederten Schlange Rezension zu Michael Geißler: Acid, Mao und I Ging. Erinnerungen eines Berliner Haschrebellen Rezension Detlev Briesen: Drogenkonsum, Drogenpolitik, Deutschland, USA Rezension Max Goldt: Quite Quality Rezension Grice Scott – Die schönen Blödmacher Rezension Franjo Grotenhermen, Britta Reckendrees: Die Behandlung mit Cannabis und THC Rezension Holbein: Weltverschönerung Rezension Peyote und die Huichol-Indianer Rezension Bommi Baumann: Rausch und Terror Rezension Korf: Cannabis in Europe Rezension Robert Levine Die grosse Verfuehrung Die CIA und der globale Drogenhandel Rezension Jeremy Narby – Intelligenz in der Natur Rezension Ingo Niermann Adriano Sack: Breites Wissen Rezension Pinchbek – 2012: Die Rückkehr der gefiederten Schlange Rezension Wolfgang Schneider: Die „sanfte“ Kontrolle, Suchtprävention als Drogenpolitik Rezension Jens Förster: Kleine Einführung in das Schubladendenken Rezension Max Goldt: Quite Quality Rezension zu Timmerberg: Shiva Moon Rezension Wolf-Dieter Storl: Ich bin ein Teil des Waldes Rezension Wolfgang Schneider: Die „sanfte“ Kontrolle, Suchtprävention als Drogenpolitik Rezension Bernhard van Treeck: Drogen- und Sucht-Lexikon Rezension Wink & Wyk: Mind-Altering and Poisonous Plants of the World Rezension Jürgen Wolsch – Drogen. Ein Wissenscomic Rezension Zig Zag Zen – Buddhism and Psychedelics Rezensionen Drogen und Drogenpolitik Smarte Chips für die Warenwelt, Morgenwelt, 14.06.2004 Gekonnte Einzelaktionen Beobachtung über die Wirkungen des Haschisch des Bremer Afrikaforschers Gerhard Rohlfs 1866 Cannabis Routen Die IT-Struktur von Sabre, Computer Zeitung, 09.10.2006 Rundgang in Ottensen SALVIA DIVINORUM Die Allerschönste, PETRA, März 2006 Dope auf dem Schulhof Marihuana in den Groschenheften der Sechziger Jahre Die Schwitzhuette Seychellen – Reif für 115 Inseln Wichtige Regeln für das hanfgerechte Surfen und Posten im Internet Der Computer im Portemonnaie, Deutsches Allgemeines Sonntagsblatt v. 28.08.98 Auf dem Suwannee River Special Tabak Der Pulsschlag des Prozessors, Frankfurter Allgemeine Zeitung v. 21.03.2000 Test eines Vaporizers „Happy, Happy, Same, Same“ Nach dem unblutige Putsch in Thailand ist wieder einmal König Bhumibol gefragt. Wer ist dieser Mann? Gefahr im Paradies – Das Reiseziel Thailand im Wandel Reportage, THC-Pharm, Dronabinol, Delta-9-THC Thesen_zur_Drogenpolitik Tiefe – oberflächlich betrachtet Tipi Aufbau Anleitung Ganz Ohr sein – Die Tomatis Hörkur, Hamburger Abendblatt vom 7. Januar 1998 Der spielerische Krieg, Telepolis, 3.9.2005 Tröpfchenweises Wissen Reine Ruhe statt Radau und Rabatz, Telepolis, 18.10.2005 Der mobile Kunde im Visier, Telepolis, 08.12.2005 Der Trend zum functional food zeigt die Virtualisierung der Ernährung und birgt mehr Risiken als Vorteile, telepolis, 02.01.2007 Freiflug für Buchschnipsel, Telepolis, 30.06.2006 Werbeslogans und Verpackungsangaben werden sich radikal ändern, Wucht und Wahrheit in Tüten Kupfer am Limit – Technik, Wünsche und Probleme bei IPTV Ich© liebe Dich® , telepolis v. 1.11.2004 Das Pokerfieber grassiert – Warum Pokern zum Volkssport aufsteigt Einleitung zum Telepolis Übermensch Blog – Projekt Übermensch: Upgrade ins Nirvana Web 2.0 FURZTROCKEN ABER GUT Trocknen von Cannabis In den USA hat sich Cannabis als Medizin längst durchgesetzt Cannabis-Politik in den USA Die sozialistischen Staaten und das Internet, Spiegel Online v. 28.05.2002 Ho Chi Minh im Freudentaumel Vietnam sucht den Zugang zum Internet, FAZ Herba Cannabis – Aus dem „Lehrbuch der Pharmacologie“ (1856) von Carl Damian Ritter von Schroff Vor zehn Jahren kam das Potenzmittel Viagra auf den Markt, Welt am Sonntag v. 25. März 2008 Helmut Wenske Wie München ist Lob der Übertragung. Die Kunstwerke der Ulrike Willenbrink Der Riambakultus – Aus einem Vortrag von Franz von Winckel (1890) Glasfasernetz bricht alle Rekorde, Computerwoche, 01.09.2006 Das spezielle Yoga des Inders Bellur Iyengar stärkt das körperliche und geistige Befinden Das macht sie alle willig – Zu Besuch bei „Zaubertrank“ in Hamburg Winderhude Special Tabak
Buch: Abenteuer Künstliche Intelligenz /  (9 pages) Chessbase Rezension Joerg Auf dem Hoevel Abenteuer Kuenstliche Intelligenz De:Bug Rezension Joerg Auf dem Hoevel Abenteuer Kuenstliche Intelligenz FAZ Rezension Joerg Auf dem Hoevel Abenteuer Kuenstliche Intelligenz Abenteuer Künstliche Intelligenz. Auf der Suche nach dem Geist in der Maschine IX Rezension Joerg Auf dem Hoevel Abenteuer Kuenstliche Intelligenz Leseprobe I Leseprobe II Mac Profiler Rezension von Joerg Auf dem Hoevel: Abenteuer Kuenstliche Intelligenz RTV Rezension Joerg Auf dem Hoevel Abenteuer Kuenstliche Intelligenz

Buch: Pillen für den besseren Menschen  (10 pages) Leseprobe Kapitel 7 (pdf) Anregungen und Korrekturen Bestellen Eingangsseite Inhaltsverzeichnis (pdf) Inhaltsverzeichnis Kontakt Panorama Skript Panorama (pdf) Rezensionen

Floating/  (24 pages) Startseite: Der Floating- und Samadhi-Tank Anwendungen Fine: Flotation REST in Applied Psychophysiology Floating PSO Magazin (pdf) Liste mit Float-Centern in Deutschland, Europa und auf der Welt Geschichte Hutchison’s MEGABRAIN Hersteller und Institutionen Interview John C. Lilly Interview John C. Lilly II JOHN C. LILLY (A CHRONOLOGY) https://joergo.de/tank/kjellgren_buhrkall_norlander_2010.pdf Kleinanzeigen Kontakt Lilly Biographie Lilly Monographie Literatur Programming and Metaprogramming Ernesto A. Randolfi Stress Management and Relaxation Center for the Worksite REST-Assisted Relaxation and Chronic Pain Peter Suedfeld, REST Research References The deep self – Auszüge Was ist ein Tank? Was ist Floating?

zurück zur Startseite

Kategorien
Elektronische Kultur Mixed

Datenschutz Zombies

telepolis, 11.05.2011

In den Zeiten des Data-Minings braucht es keine Psychologie.

Die Bewegungsprofile der Web- und Spielenutzer erzeugen ungeheure Datenmengen, deren Analyse zum Spielfeld für Spezialisten geworden ist. Beim sogenannten Data-Mining werden in solchen Datenbeständen Muster erkannt, die Aufschluss über das Verhalten der Benutzer geben. Täglich spielen Millionen von Menschen Online-Spiele. Zynga beispielsweise, Hersteller der populären Browserspiele Farmville und Cityville, sammelt dabei täglich 60 Milliarden Datenpunkte.

Auffällig ist nun, dass zunehmend Kontext, Motivation und das Verhalten der Benutzer nicht mehr mit Begriffen der Psychologie, sondern als statistische Relationen ausgedrückt werden. Es spielt für die Analyse keine Rolle mehr, wie sich der Einzelne in der Situation fühlt, sie beurteilt und auf sie reagiert. Die pure Datenmenge führt zu einer Psychologie ohne psychologische Begriffe.

Was sind die Folgen? Einerseits könnte man froh sein, dass die oft verschwurbelten Begrifflichkeiten zur Beschreibung mentaler Zustände offenbar nicht benötigt werden, um menschlichen Verhalten vorherzusagen. Was der Betroffene dabei fühlt und denkt, stand schon immer auf einem anderen Blatt. Die Kritik am Behaviorismus ist bekannt. Andererseits ist die Tendenz zur Reduzierung des Menschen zum – vor allem ökonomisch verwertbaren – Datenpunkt unverkennbar. In der Praxis erhält zukünftig jeder seine, auf ihn persönlich und seine Surf- und Browserhistorie zugeschnittene Website präsentiert. Noch interessanter wird es, wenn den Computernetzwerken Mitspracherecht bei den vielen Entscheidungen gegeben wird, die unentscheidbar sind. Der Schwangerschaftsabbruch sei genannt. Und von diesen „prinzipiell unentscheidbare Fragen“ (Heinz von Foerster) gibt es erstaunlich viele.

 

Kategorien
Elektronische Kultur

Computerspiele und Suchtgefahr

Hanfblatt Nr. 104

Shoot me!

Warum Computerspiele eine gute Sache sind – obwohl sie auch abhängig machen können

Computer und Konsole sind allgegenwärtig geworden, kein Haushalt ohne Spielmaschine. Die Wissenschaft streitet: Fördern Prozessorkraft und Joystick den jungen Geist oder führen sie schon früh zu süchtigem Verhalten? Ein Streifzug durch die Seele des homo ludens.

Letztlich kam der neunjährige Sohn eines Freundes zu diesem und sagte: „Papa, das bringt soviel Spaß, ich kann gar nicht mehr aufhören.“ Die Rede war von einem Computerspiel, dass er seit zwei Stunden mit seinem Joystick malträtiert hatte. Zwei Umstände sind an seiner Aussage aufschlussreich: Zum einen bemerkt er seine veränderte Geisteshaltung, zum anderen spricht er mit seinem Vater darüber. Wie, so wird die Frage seiner Zukunft lauten, nutze ich das Potential der Prozessoren ohne mich in ihnen zu verlieren? Die Parallelen zum Gefährdungspotential von Cannabis und anderen Drogen sind deutlich.

Auch dieser Sohn wird erwachsen werden und man muss davon ausgehen, dass Computer und die dazugehörigen Spiele ihn weiter durch sein Leben begleiten werden. Wird er dann bemerken, wenn ein Spiel ihn eventuell über Stunden, Tage und Wochen so sehr packt, dass er andere Interessen total vernachlässigt? Das nennt sich Kontrollverlust. Kommen nun noch Entzugserscheinungen und Toleranzsteigerung hinzu sind schon die klassischen Merkmale einer „Sucht“ vorhanden.

Ralf Thalemann arbeitet im Suchtforschungszentrum der Berliner Charité und hat eine Studie über exzessives Computerspielen durchgeführt. „Die Hirnreaktionen von exzessiven Computerspielern ähneln denen von Alkohol- und Drogensüchtigen“, sagt er. Allerdings schlägt nur ein kleiner Anteil der Spieler diesen Weg ein, glaubt man den Untersuchungen, sind maximal 10 Prozent der Jugendlichen, die gerne mal einen ausdaddeln, süchtig danach. Fazit: Daddeln kann abhängig machen, muss es aber nicht. Stellt sich die Frage, wer besonders gefährdet ist.

Auch hier decken sich die Ergebnisse mit den Erfahrungen aus dem Drogenbereich: Die Ursachen für eine Sucht sind genauso komplex wie der einzelne Mensch. Thalemann behauptet: „Menschen, die nicht gut mit Stress umgehen können, sind eher gefährdet exzessives Computerspielverhalten zu entwickeln. Menschen, die dazu tendieren ihre Probleme nicht lösungsorientiert anzugehen, die versuchen, sie zu verdrängen. Besonders bei Jungen hat das Computerspielen dann einen Stress reduzierenden Effekt – man vergisst seine Sorgen, es macht Spaß, man kann in Welten abtauchen, die einem gut gefallen.“

Liegt dazu noch das Verhältnis zu den Eltern völlig brach und sind auch die Freunde nicht in der Lage ein Korrektiv zu bilden, dann sieht es schlecht aus für den High-Score in zeitnaher Zukunft. Es gibt tatsächlich Typen (und es sind nunmal hautsächlich Männer), die fünf Mal die Woche bis spät in die Nacht zocken und sich wundern, dass sie am nächsten Tag nichts gebacken bekommen.

Über die Diskussion der möglichen negativen Folgen des Spielens am Rechner sind die positiven Seiten lange Zeit aus der Sicht geraten. Das ändert sich gerade, in Köln trafen sich vor kurzem Spieler und Spieltheoretiker, um auf der Konferenz „Clash of Realities“ zu erörtern wie Spiele Gesellschaft und Kultur prägen.

Erstes Ergebnis: Es bestehen riesige Unterschiede in der Sicht auf virtuelle Spiele. Eltern und viele andere Erwachsene sehen nur die Oberfläche des Spiels, beobachten entsetzt, wie jemand Autos zu Schrott fährt oder feindliche Soldaten erschießt. Gerade bei den schnellen Actionspielen tritt aber die Optik nach einiger Zeit in den Hintergrund, es geht dann nur noch um den Wettkampf und vor allem um »Flow«, das fast trancehafte Agieren und Reagieren in der durch die Technik vorgegebenen Umwelt. Die Spiele bedienen nicht nur pubertäre Allmachtsfantasien, sondern können schnelles Denken unter Druck, kollektives Vorgehen und Kreativität fördern. Wer einmal „Crazy Machines“ gespielt hat, kann das bestätigen.

Leider sind die Produktionskosten für ein Spiel mittlerweile so hoch, dass sich nur wenige Firmen Experimente abseits der klassischen Spielgenres leisten können. Das dies in Zukunft anders werden könnte, führt zum zweiten Punkt: Die Spielebranche versucht neuerdings auch Frauen und die ältere Generation an den Bildschirm zu locken. Diese haben weniger actionorientierte Vorlieben beim Spielen.

Drittens: Die Zeiten des reinen Geballers sind vorbei. Seit seinem Start im Jahr 2004 hat das Online- Rollenspiel „World of Warcraft“ weltweit 6,5 Millionen Spieler registriert. Zehntausende verhandeln, kaufen, tauschen und, ja, kämpfen hier täglich. Einer der Entwickler des Spiels, Frank Pearce, bemerkte in einem Interview: „Computerspiele sind wie jede andere Art von Medien und Unterhaltung – man muss sich in Mäßigung üben.“

In den konventionellen Computerspielen gibt es nur Täter oder Opfer. Neue Varianten haben von der Literatur gelernt, dass es auch den hilflosen oder duldenden Zuschauer gibt. Obwohl ein typischer First-Person-Shooter, zeigt beispielsweise „Half Half 2“, wohin die Reise geht. Lange Erzählstrukturen durchwirken das Spiels, reines Betrachten und Interaktivität wechseln sich ab. Aber: Nach einem Wochenende „Half Life 2“ reagieren sensibleren Menschen auf scharrende Geräusche im Treppenhaus schon mal nervös. Selbst wenn man dem Genre gewogen ist, fällt doch die Vorrangstellung der militärischen Ego-Shooter auf dem Markt auf. Da liegt der bedauerliche Schluss nahe, dass die männliche Natur enormen Spaß am Verstecken, Zielen, Ballern und Eleminieren zu haben scheint.

Kill Bill

Alle paar Jahre taucht die Diskussion wieder auf, ob diese „Killerspiele“ die Gewalt fördern. Dave Grossmann, ein amerikanischer Psychologe, ist überzeugt, dass Jugendliche durch Videospielen das Töten lernen. Als Beweis führt er immer wieder Michael Carneal an, einen 14-jährigen Jungen aus Kentucky. Dieser stahl eine Waffe und schoss auf Klassenkameraden. Fünfen davon in den Kopf, die anderen drei traf er in den oberen Körperbereich. Der Junge hatte nie zuvor eine Waffe in der Hand gehabt, aber er hatte Videospiele gespielt, in denen genau diese Art zu schießen geübt wird.

So einfach ist es aber nicht mit dem Ursache-Wirkung-Prinzip. Studien weisen darauf hin, dass sich aggressivere Kinder von vornherein häufiger die brutaleren Games aussuchen. Mittlerweile gilt als bewiesen, dass Spieler, die heftig Ballern, auch kurze Zeit nach dem Spiel noch aggressive Tendenzen haben. Die Effekte sind aber deutlich geringer als nach dem Anschauen von Kinofilmen mit Gewaltszenen. Das Feuilleton feiert Filme wie „Kill Bill“ und die Ästhetisierung von Gewalt, will aber unter PC-Spielern nur Dumpfbacken ausmachen. Spielen gilt halt, ob nun elektronisch oder nicht, als Domäne der Kinder, Erwachsene haben sich dem Ernst des Lebens zu widmen.

Ob Spiele mit viel Gewalt auch längerfristige Wirkungen zeigen, ist unklar. Es ist aber unsinnig anzunehmen, dass alleine Computerspiele aggressive Ausbrüche bedingen. Man muss immer sehen, was sonst noch im Leben der jeweiligen Personen passiert und welchen Medienzugang sie außerdem haben.

Die Lust der Menschen aufs Geballer hat auch die US-Armee erkannt. Sie gibt ein grafisch anspruchsvolles Spiel heraus: America’s Army. Im Spiel ist man Soldat – und kann man sich direkt von der echten Armee rekrutieren lassen. Über vier Millionen registrierte Spieler gibt es bereits, einige davon spielen über 40 Stunden in der Woche. Die Armee organisiert Hunderte von Turnieren im Jahr, nach den LAN-Schlachten zeigen Sergeants der Army den Spielern echte Waffen, den besten Spielern werden Jobs angeboten.

Aus gesellschaftlicher Perspektive ergibt sich ein seltsamen Phänomen: Nutzt ein Mensch die Rechenmaschine konstruktiv-kreativ, dann darf er durchaus Tage und Nächte vor der Kiste verbringen: Er ist dann ein „Computerfreak“, ein „Geek“ oder „Nerd“, aber kein „Süchtiger“. Dreht man an dieser Gedankenschraube weiter, dringt einem die ohnehin ausgeprägte Begeisterungsfähigkeit der Computer-Fans in den Geist. Die gesamte Programmierer- und vor allem Open Source-Szene, die Entwickler des frühen Internet und auch die Millionen Hobby-Hardcore-User kommen ohne einen gewissen Hang zum Enthusiasmus gar nicht aus. Für Männer ist der Rechner eben das perfekte Objekt: Jedem Reiz folgt eine Reaktion, die Maschine gehorcht und reagiert stets logisch. Das aus jeder Inbrunst auch Übereifer werden kann ist hinlänglich bekannt. Interessanter zu erforschen als das abgekaute Suchtpotential dürfte zukünftig sein, in wie weit die Maschine rein technisches Denken fördert. Aber bisher beschränkt man sich darauf, wie bei den Drogen auch, ein Phänomen, weil man es nicht versteht, primär als Gefahr zu deuten.

 

Kategorien
Cognitive Enhancement Elektronische Kultur Gesundheitssystem Übermensch

Interview mit dem Philosophen Oliver Müller über chemo- und neurotechnologische Umbaumaßnahmen an Körper und Geist

telepolis, 20.08.2010

Wenn Technik Lösungen, aber keine Antworten bietet

Der Philosoph Oliver Müller arbeitet am Institut für Ethik und Geschichte der Medizin in Freiburg und hat jetzt ein erhellendes Werk über den Einzug technischer Optimierungen in Lebenswelt und Körper des Menschen geschrieben. Im Interview beschreibt er, welche Auswirkungen diese Technisierungsprozesse auf Selbstsein und Selbstverständnis haben können.

Der Gegensatz von Natur und Technik ist bis heute Grundlage vieler Überlegungen zu Stellung des Menschen in der Welt. Wo liegen aus Ihrer Sicht die Grenzen dieser Dichotomie?

Oliver Müller: Auch wenn sie meiner Meinung nach nicht als völlig obsolet betrachtet werden darf, kommt die Dichotomie von Natur und Technik vor allem in anthropologischer und ethisch-normativer Hinsicht an ihre Grenzen. Epistemologisch-phänomenologisch kann man im Normalfall dann doch meist unterscheiden: Viele technische Eingriffe verändern die Natur nachhaltig, doch bleibt das veränderte „natürlich“ – sei es der Schwarzwald (den es in der heutigen Form – mit dem Fichtenbestand – Anfang des 19. Jahrhunderts noch nicht gab) oder ein durch künstliche Befruchtung auf die Welt gekommenes Kind. Selbst in der Synthetischen Biologie, deren Produkte „living machines“ genannt werden, sind es zwar synthetisierte, aber doch lebende Mikroorganismen.

Beim Menschen ist das anders: Da ist es schwer zu sagen, was ist ganz natürlich und was ist kulturell und technisch überformt. Wir nehmen Medikamente, fahren Autos und implantieren Hirnchips. Dabei können massive Anpassungsvorgänge eine Rolle spielen und es kann zu weitreichenden Eingriffen kommen – doch macht uns diese „natürliche Künstlichkeit“, die typisch für die menschliche Lebensform auch nicht zu komplett „künstlichen“ Wesen, gleichzeitig wollen wir ohne das „Künstliche“ und „Technische“ gar nicht leben, identifizieren uns mit dem hochkomplexen Kulturraum. Trotzdem empfinden wir bestimmte Techniken als „natürlich“ oder integrierbar in eine als „natürlich“ empfundene Lebensweise. Und das führt uns zu der ethisch-normativen Dimension dieser Unterscheidung.

Häufig wird dem Natürlichen ein Wert zugemessen, der respektiert werden soll und das technische Handeln wird in irgendeiner Weise als problematisch angesehen. Doch so eins-zu-eins kann man weder aus der Natur noch auch der Technik Normatives ableiten. Dazu braucht es zusätzliche Argumente, bedarf es eines anthropologisch-ethischen Rahmens, in dem die Unterscheidung von Natur und Technik überhaupt sinnvoll eingesetzt gemacht werden kann. Dann kann aus der Begrenzung der normativen Reichweite – das klingt paradox – normativ Fruchtbares gemacht werden.

Ist denn aus Sicht der Philosophie so etwas wie ein unverbauter, tiefer Einblick in natürliche Zusammenhänge überhaupt möglich? Anders formuliert: Wartet auf dem Grund philosophischer Erkenntnis eine naturgegebene Ebene, deren Erkennen Richtlinien vorgeben kann?

Oliver Müller: Da müsste man gegenfragen: Was ist ein tiefer Einblick in natürliche Zusammenhänge? Ich denke, die Philosophie kann versuchen, die verschiedenen Weisen, das Natürliche zu verstehen und mit ihm umzugehen, präsent halten. Wenn Philosophie die kritische und selbstkritische Klärung der wichtigen, der interessanten und existenziellen Begriffe und Konzepte einer Zeit zum Ziel hat, dann muss sie sich auch der Natur und dem Natürlichen annehmen: Wie kann man sinnvoll nach dem Natürlichen fragen? Und dann kann man das auffächern: wissenschaftstheoretisch (welcher Naturbegriff liegt den Naturwissenschaften zugrunde?), anthropologisch (kann man gehaltvollerweise von einer „Natur des Menschen“ reden?) oder ethisch (inwiefern kann das Natürliche Handlungsorientierung bieten?) und so weiter. Und dann muss man sich eben einer dieser Fragen annehmen und sie genau analysieren und die Antworten streng prüfen. Wenn ich Sie richtig verstehe, dann hat Ihre Frage nach dem Erkennen und den daraus folgenden Richtlinien eine ethische Zielrichtung…

Anders formuliert, würde sie lauten: Kann das, was ich als „natürlich“ erkannt habe, im Gegensatz zum Künstlichen, Technischen, Kulturellen, zu normativen Richtlinien des Handelns führen?

Oliver Müller: Hier würde ich nun sagen, dass die Philosophie moderieren kann, sie kann sagen, die Erläuterung der Funktionsweise von Peptidverbindungen als Erklärung von bestimmten natürlichen Vorgängen ist auf einer anderen Ebene anzusiedeln als die „Natürlichkeit“ einer Lebensweise. Letzterem kann man sich etwa metaphorologisch nähern und fragen: Inwieweit spielen die Vorstellungen des „Organischen“ oder des „natürlichen Gedeihenkönnens“ für die ethische Orientierung eine Rolle. Dass das eine sinnvolle Frage ist, zeigt die anhaltende Konjunktur des Aristotelismus. Doch wird man vermutlich sagen, die Richtlinien des Handelns lassen sich nicht auf diese metaphorischen Hintergrundvorstellungen reduzieren, das wäre schräg. Und dann müsste man diesen „Daseinsmetaphern“ einen Ort in der ethischen Theorie zuweisen und entwickeln, dass sie eine bestimmte Funktion ausfüllen, die vielleicht der Person-Begriff nicht mitabdecken kann.

Gleichzeitig muss man dabei aufpassen: Der direkte Verweis auf die Natur kann ja, wie Hume angemerkt hat, von einem unrechtmäßigen Schluss vom Sein auf ein Sollen führen. Gleichzeitig kann der Verweis auf die Natur zynisch oder chauvinistisch sein, etwa wenn man sexuelle Orientierungen als „widernatürlich“ bezeichnet. Das heißt, man muss sich genau anschauen, welcher Art der Begriff oder die Metapher des Natürlichen ist, den man fruchtbar machen will. Auf diese Weise würde man auch weitere für die Ethik relevante Natur- oder Natürlichkeitsbegriffe näher untersuchen, wie etwa den Körper, den Leib. Der Leib als die „Natur, die wir selbst sind“, wie Gernot Böhme das genannt hat, wird in ethischen Theoriebildungen oftmals marginalisiert. Und dann muss man fragen, warum das so ist und gegebenenfalls die leibliche Existenz anthropologisch und ethisch gehaltvoll machen. So kann die Philosophie durch eine Differenzierung der Fragestellung zu Antworten beitragen, die vielleicht präziser sind als die Antworten, die man vorher hatte.

Will man diese Methode konkret am Fall der Diskussion um die Selbstoptimierung durch chemisches oder neuro-technisches Enhancement anwenden, so könnte man beispielsweise fragen, welchen Sinngehalt „Optimierung“ heute zugemessen wird.

Oliver Müller: Genau. Die Verständigung über das, was wir in diesem Zusammenhang genau als „Optimierung“ bezeichnen, ist für die ethische Einschätzung des Enhancement von zentraler Bedeutung. Mir scheint, als würden in der Debatte immer wieder Kategorienfehler begangen. Denn von der Verbesserung des Menschen zu reden, hat eine lange kulturgeschichtliche Tradition, Menschen wollten und sollten schon immer in moralischer oder körperlicher Hinsicht verbessert werden, die Perfektibilität galt als Auszeichnung des Menschseins. Und diese als wertvoll erachteten Verbesserungstendenzen des Menschen scheinen mitgemeint zu sein, wenn von neurotechnischer „Verbesserung“ oder ähnlichem die Rede ist.

Doch ist genau an dieser Stelle eine anthropologische Reflexion von Bedeutung: Denn das, was mit einem Medikament verbessert wird, muss erst in seiner Bedeutung für die menschliche Lebensführung qualifiziert werden. Die gesteigerte Konzentrationsfähigkeit, die bei Prüfungen nützlich sein kann, oder der modulierte Stimmungshaushalt, der eine Person gesellschaftsfähiger machen mag, sind nur in bestimmter Hinsicht Optimierungen, in anderer Hinsicht können sie Verschlechterungen sein, etwa wenn die Einnahme von Medikamenten zu einer Selbstinstrumentalisierung führt, wenn sich eine Person also nur um des guten Funktionierens willen zu optimieren trachtet. Und an dieser Stelle kann es eben bedeutsam sein, sich des „Natürlichen“ oder „Organischen“ der Lebensführung als Richtwert zu erinnern.

Was die Stoa „nach der Natur leben“ nannte, hat nichts mit einem zivilisationskritischen „Walden“ zu tun. Es ging um die Etablierung von Orientierungsfiguren für die Lebensführung. Und da kann unter Umständen das Gefühl der „organischen Entwicklung“ oder des „Gedeihenkönnens“ stimmiger sein als die Logik des Enhancements, quasi auf Knopfdruck pharmakologische Lösungen für Herausforderungen in bestimmten Lebenssituationen anzubieten. Es geht also nicht darum zu sagen, die Enhancements seien „wider die Natur“. Das ist Quatsch. Aber die Reflexion über das Natürliche kann helfen, einen Rahmen zu etablieren, in dem die Beantwortung der ethischen Fragen der individuellen Lebensführung zumindest bereichert wird.

Dazu kommt die Aufgabe, Enhancement-Techniken vor dem Hintergrund ihrer historischen Entwicklung zu betrachten. Bei den Medikamenten zeigt sich hier eine Linie von den Stimulanzien, wie sie beispielsweise im 2. Weltkrieg von deutschen Fliegern benutzt wurden, bis hin zum heutigen Modafinil, das an britische Truppen verteilt wurde. Wie kommt es, dass diese Aufputschmittel, trotz mangelnder wissenschaftlicher Basis, nun als „Neuro-Enhancer“ bezeichnet werden?

Oliver Müller: Das ist eine gute Frage. Mir scheint da eine merkwürdige Allianz von wissenschaftlicher Rationalität und mythisch-magischen Praktiken bzw. Sehnsüchten eine große Rolle zu spielen. Offenbar gibt es ein menschliches Grundbedürfnis, sich mit Pharmaka selbst zu formen, andere Seelenzustände zu erkunden oder ähnliches.

Schon in der Antike dient das „pharmakon“ immer wieder als Begriff, aber auch als Metapher, um philosophische oder anthropotechnische Selbstformungen zu thematisieren und zu propagieren. Zaubertränke gibt es in der Kulturgeschichte zuhauf, bei „Tristan und Isolde“ ist es sogar so, dass die pharmakologisch induzierte Liebe als besonders „authentische“ gilt. Und diese mythisch-magische Folie der Selbsteinwirkungen wird nun in der modernen Zivilisation rationalisiert, indem die Aura, das Versprechen, sich selbst zu verbessern, als technisch generierbar, als machbar auf der Basis gesicherter wissenschaftlicher Erkenntnisse gilt.

Es entspricht der Logik der Technik, Lösungen auf Knopfdruck anzubieten, perfektes Funktionieren zu garantieren. Dies kann sich dazu ausweiten, dass in einer Art technologischem Imperativ alles „Imperfekte“ am Menschen – oder eben am Soldaten – technisch kompensiert werden muss. Und auch wenn nicht in allen Fällen klar ist, in welcher Weise das vermeintlich Imperfekte perfektioniert wird oder welche Wirkungen und Langzeitfolgen manche Medikamente überhaupt haben, findet hier eben ein Überlagerungsvorgang statt: Der technologische Imperativ der Selbstkorrektur ist nur eine Ausdrucksform für mythische Sehnsüchte nach dem ultimativen pharmakon.

Es ist sicherlich so, dass die Pharma-Industrie von diesem Vorgang profitiert. Inwieweit sie bei der Lancierung des Begriffs „Enhancement“ eine Rolle spielt, weiß ich nicht zu sagen, doch es ist jedenfalls so, dass manche Ethiker vorschlagen, statt „Hirndoping“ den Begriff „Enhancement“ zu verwenden, weil er „neutral“ sei – aber genau das ist nicht der Fall. Dadurch dass Enhancement „Steigerung“ oder „Verbesserung“ bedeutet, liegt auch in diesem Ausdruck schon etwas Tendenziöses. Oder anders gesagt: Im Enhancement feiert die mythisch-magische Sehnsucht nach pharmakologischer Selbsttranszendierung im Gewand des Sachlich-Rationalen fröhliche Urständ…

Das menschliche Grundbedürfnis seine Umwelt und sich selbst mittels Technik zu perfektionieren, braucht Richtwerte. Sind uns diese in den westlichen Industriegesellschaften im Rahmen der von ihnen „Selbstinstrumentalisierung“ und „Selbstverdinglichung“ genannten Prozesse verloren gegangen?

Oliver Müller: Selbstinstrumentalisierung und Selbstverdinglichung sind nach meinem Verständnis Deutungsmuster, mit denen man Grenzen von Technisierungsprozessen ermitteln kann. Ich verstehe Technisierungsprozesse als in ihrer Grundstruktur ambivalent: Die Technik erschließt uns unsere Wirklichkeit, kann sie aber auch verarmen, in dem Sinne, dass andere Wirklichkeitsbereiche durch die Technik dominiert werden. Die Technik hilft uns, die Wirklichkeit zu kontrollieren, kann aber sie auch beherrschen, Technisierung ist immer auch Ersparnis von Zeit, kann aber auch zu Beschleunigungsvorgängen führen, mit denen wir nur noch schwer zurechtkommen können. Mir geht es nicht darum, die Technik zu verteufeln, das wäre unsinnig, denn der Mensch ist ganz wesentlich Techniker. Ich will vielmehr zeigen, dass wir kritischer Deutungsmuster bedürfen, um sensibel zu sein für negative Auswirkungen von Technik.

Was bedeutet das für das Enhancement-Beispiel?

Oliver Müller: Die moderne Medizintechnologie wird uns immer mehr Präparate und Techniken zu Verfügung stellen, nicht mehr nur therapeutisch, sondern optimierend auf uns einzuwirken. Zu Selbstinstrumentalisierung wird der Einsatz dieser Technik, wenn die Selbstbezugnahme einseitig wird, wenn alternative Selbstverbesserungsmöglichkeiten verloren gehen oder marginalisiert werden. Zur Selbstverdinglichung wird das Enhancement, wenn ich mein Leben nach Maßgabe dieser Techniken ausrichte und etwa defiziente Erfahrungen im Kontext leistungsgesellschaftlicher Anpassungsvorgänge chemisch ausgleiche. Wenn ich die pharmakologische Nachbesserung an meinem Selbst für gerechtfertigt halte, dann interpretiere mich schon, als wäre ich eine Maschine.

Und welche Richtwerte schlägt die Philosophie vor?

Oliver Müller: Richtwerte würden in den Aufgabenbereich der philosophischen Ethik fallen. Dabei sind unterschiedliche Ebenen zu betrachten: Erstens muss die Ethik, müssen Ethiker angesichts weitreichender Handlungsmöglichkeiten des Menschen – der Mensch ist immerhin das einzige Tier, das böse sein kann – diejenigen unverrückbaren Grenzen und Normen formulieren, die das Rückgrat unserer Kultur bilden, die menschliches Leben überhaupt garantieren können. Beispiele hierfür sind die Menschenwürde oder die Respektierung individueller Autonomie.

Zweitens geht es in der Ethik aber auch darum, die Zumutungen der conditio human in Lebenspraxis umzusetzen. Hierunter verstehe ich nicht nur die Tradition des Nachdenkens über das „gute Leben“ oder die „Sorge um sich“, sondern überhaupt den Umgang mit der eigenen Endlichkeit, Gebrechlichkeit, Fragilität. Um mit den Unbilden des Lebens umgehen lernen zu können, bedarf es grundsätzlicher anthropologischer und sozialer Reflexionen über die Eigenarten der humanen Lebensform. Und dazu gehört auch eine Verständigung über die Rolle der Technik in unserem Leben.

Welche Aspekte unseres Dasein wollen wir in den Verfügungsbereich der Technologien rücken und welche nicht? Also geht es in der Ethik immer auch um die Selbstverortung in der wissenschaftlich-technischen Zivilisation. Die Normen und Lebensregeln, die aus solchen Überlegungen gezogen werden können, sind natürlich anderer Art als der Rekurs auf die Würde. Hier spreche ich eher von Orientierungsnormen, Maßstäben oder Richtwerten, die eine andere Art von Verbindlichkeit haben – die aber helfen, das individuelle Leben zu strukturieren. Was von großer Bedeutung ist, denn es ist charakteristisch für Menschen, dass sie sich in einem Netz von normativen Vorstellungen bewegen und unzählige Meinungen darüber haben, wie etwas sein soll, wie ein Leben geführt werden soll, was gar nicht „geht“ – derartige kryptonormative Vorstellungen gilt es explizit zu machen, zu bündeln, zu hinterfragen.

Wenn es gut läuft, dann schiebt die Enhancement-Debatte doch die öffentliche Thematisierung der menschlichen Selbstdeutung an. Ab wann führen technische Einflussnahmen auf den Körper zur Mechanisierung menschlicher Selbstdeutung? Ein Problem dabei ist doch sicherlich, dass die Definition des Selbst so schwierig und hoch individuell ist.

Oliver Müller: Die Definition des Selbst ist schwierig, ist eine große philosophische Herausforderung. Das werde ich hier nicht versuchen. Was hier jedoch wichtig ist: Der Mensch ist das sich selbst interpretierende Wesen, wie Charles Taylor sagt. Das heißt: Wie man sich selbst deutet – in einer anderen Sprache: Welches Menschenbild man hat –, wirkt sich auf die Bewertung von Handlungen und Einschätzung von Lebensweise aus. Daher sind Veränderungen in der Selbstdeutung ein herausragendes Thema der Ethik. Diese sind natürlich schwer zu protokollieren, doch ich bin davon überzeugt, dass hier einer der Knackpunkte in der Bewertung von Technisierungsprozessen im Allgemeinen und des Enhancement im Speziellen liegt.

Um ein extremes Beispiel zu verwenden: Wenn sich Menschen als im Prinzip unfreie, fremdgesteuerte Wesen verstehen, dann wird sich dies auch auf ihre Begriffe von Verantwortlichkeit und Schuld auswirken, falls sie diese überhaupt noch im ethischen Repertoire haben. Im Enhancement-Kontext heißt das: Wenn die vorherrschende Selbstdeutung diejenige ist, dass Menschen physiologisch imperfekte Maschinen sind, die man pharmakologisch und technologisch verbessern kann und sollte – dies ist übrigens eine der Grundüberzeugungen des Transhumanismus –, dann wird man die entsprechenden Medikamente und Techniken nicht nur sorgloser einsetzen, sondern diesen Einsatz auch fordern… Wenn die Selbstdeutung derartige Auswirkungen auf die individuelle und gesellschaftliche Praxis hat, dann kann man in der Tat von einer „Mechanisierung menschlicher Selbstdeutung“ reden.

Es ist eine Illusion, dass wir unsere Beschränkungen jemals vollständig überwinden können, weil ja hinter jeder überwundenen Schranke eine neue wartet. Sollte man zu mehr Bescheidenheit aufrufen?

Oliver Müller: Ob Bescheidenheit hier die richtige Tugend ist, weiß ich nicht, ich würde vielleicht sagen, dass dies eine Sache der Klugheit ist, der phronesis, also der Fähigkeit, Situationen nüchtern einzuschätzen und ausgewogene Urteile zu fällen, auf deren Basis man dann handelt. Und dann kann es in der Tat hilfreich sein, Enhancement-Maßnahmen auf ihre Kurzsichtigkeit hin zu untersuchen.

Wenn mit einem verbessernden Eingriff auch ein bestimmtes Lebensgefühl des Erfolgs, der „Unschlagbarkeit“ oder der souveränen Lebensgestaltung verbunden ist, dann ist es eben klug abzumessen, ob das entsprechende Medikament denn auch wirklich die Grundsituation verändert oder ob es nicht nur auf Symptome reagiert. Und wenn man zum dem Schluss kommt, dass sich die Lebenssituation durch Enhancement-Einnahmen nicht wesentlich und nur kurzfristig ändert, dann kann man den Einsatz von Enhancements vor diesem Hintergrund ethisch beurteilen.

Sind wir automatisch in der technischen Logik gefangen, sobald wir eine Technik anwenden, um unsere Denken oder Fühlen zu verändern, man denke an Meditationstechniken?

Oliver Müller: Ich denke nicht, dass wir automatisch in einer technischen Logik „gefangen“ sind, wenn wir Technik anwenden. Denn wir können als Menschen gar nicht umhin, Technik anzuwenden, Technik gehört, wie schon gesagt, zum Menschsein dazu. Aber es kann eben sein, dass die Anwendung von Techniken andere Erfahrungsbereiche oder Rationalitätstypen dominiert – das war übrigens eines der Hauptargumente von Ernst Cassirer -, und dann kann die Technik, die den menschlichen Freiheitsspielraum erweitert, in ihr Gegenteil umschlagen und Freiheiten unterbinden, etwa wenn mit der Technisierung Normierungs- und Standardisierungsprozesse verbunden sind, die ein spezifisches Repertoire an Handlungen nahelegen oder nur noch diese ermöglichen.

Ich finde es sehr interessant, dass Sie in diesem Kontext Meditationstechniken erwähnen. Denn zur Zeit gibt es ja viele Annäherungsversuche zwischen Neurowissenschaftlern und Buddhisten oder anderen Meditationstechnikern. Ich bin sehr gespannt, was bei diesen Begegnungen längerfristig herauskommt. Wir können zum einen sicher sehr viel lernen, wie neurobiologische Prozesse mit meditativen Bewusstseinszuständen korrelieren. Das finde ich spannend. Doch es kann eben auch sein, dass das Bedürfnis entsteht, die Meditationstechniken auf der Basis neurobiologischer Erkenntnisse zu „verbessern“. Es ist nicht schwierig, sich eine Welt vorzustellen, in der sich Meditationstechniken als Anthropotechniken etablieren – Meditationstechniken dienen ja auch heute schon dazu, groteske, scheinbar systembedingte Arbeitsbelastungen zu kompensieren -, und in der dann Meditationstechniken medikamentös oder vielleicht neurotechnologisch „unterstützt“ werden.

Eine solche chemische Unterstützung von Meditationstechniken wäre für mich ein Beispiel dafür, wie die technologische Logik zu einer Entfremdungssituation im Sinne einer Selbstverdinglichung führt. Es ist ein Charakteristikum der technologischen Zivilisation, dass Wissen (fast) immer eine „Umsetzung“ verlangt. Auch hier wird es nicht bei dem neurobiologischen Wissen bleiben, sondern es wird in Umsetzbares, Machbares transformiert. Aber es ist eben fraglich, so drückt das Günther Anders aus, ob das Gekonnte gleichzeitig auch das Gesollte ist.

 

Literatur:
Oliver Müller: Zwischen Mensch und Maschine – Vom Glück und Unglück des Homo faber. 214 Seiten, edition unseld, 12 Euro.

 

 

Kategorien
Elektronische Kultur

Kupfer am Limit – Technik, Wünsche und Probleme bei IPTV

telepolis, 18.12.2006

Technik, Wünsche und Probleme bei IPTV

Warum die Aufregung um den Start von IPTV bei den unterschiedlichen Anbietern? Das neue DSL bringt keine völlig neue Netzinfrastruktur, zumindest auf den letzten hundert Metern bleiben die alten Kupferadern in Betrieb. Aber: IPTV ist ein wichtiges Puzzlestück im sogenannten Triple-play, die Netzbetreiber würden es nur zu gerne sehen, wenn nicht nur Internet, sondern eben auch Telefon und TV über sie als Anbieter laufen und sie damit die gesamte Kommunikation im Privathaushalt übernehmen könnten.

Für die Telekom ist das fast überlebenswichtig. Ihr laufen seit Jahren die Kunden davon, um sich bei Mitbewerbern anzumelden. Mit viel Druck wird deshalb VDSL mit „T-Home“ beworben, die Kunden mit einem HDTV-fähigen Receiver mit 80 GB Festplatte und einem WLAN-Router beschenkt – und das bei einer vergleichsweise geringen Mindestvertragszeit von einem Jahr. Das Senderbouquet umfasst an die hundert Programme, es finden sich neben den üblichen Verdächtigen interessante Kanäle wie BBC-Prime und eine Al-Dschasira-Variante, zudem Exoten wie „Bibel TV“ und „Wine TV“ sowie eine Vielzahl an Shopping-Kanälen.

IPTV, also die Übertragung von Fernsehsignalen über geschlossene Netze unter Einsatz des Internet-Protokolls, bietet mindestens 100 Sender, die Telekom hofft auf neue Kundenbindung, auch Anbieter wie Kabel Deutschland, Hansenet, 1und1 und Arcor setzen auf die neue Übertragungsform. In der Schweiz will die Swisscom ebenfalls noch in diesem Jahr mit „Bluewin-TV“ den Markt beglücken. In Hamburg und Lübeck sind zurzeit die ersten 4000 Teilnehmer am „Alice homeTV“ der Firma Hansenet angeschlossen. VDSL ist hier nicht zwingend notwendig, um IPTV zu übertragen, das Programmbouquet wird bei Alice über die bestehenden ADSL-Leitungen geliefert.

Testbetrieb

Die Installation des von Hansenet mitgelieferten DSL-Modems von Siemens (CL-040-I) ist denkbar einfach. Die Verkabelung dahinter bringt schon eher logistische Probleme mit sich: Das Modem beherbergt vier Ethernet-Anschlüsse, einer davon geht zum Router oder eben direkt an den PC. Der für IPTV vorgesehene Slot ist markiert. Von hier aus muss ein Ethernet-Kabel zur mitgelieferten Set-Top-Box laufen, die über SCART an den Fernseher angeschlossen wird. Bei den meisten Anwendern dürften Modem und PC im Arbeitszimmer stehen, es ist also ein stabiles CAT-5 Kabel bis zum Standort des TVs im Wohnzimmer zu verlegen. Es sei denn, man schickt die bewegten Bilder über das Stromnetz mit Powerline-Adaptern in die gute Stube.

Nach Einführung der Identifizierungs-Smart-Card scannt der Receiver die Kanäle. Was nun folgt ist recht unbeschwerter Fernsehgenuss, an die langsamen Umschaltzeiten ist man seit DVB-T eh gewöhnt. Sollte das IP-Signal einmal abreißen ist ein Umschalten auf den integrierten DVB-T Receiver möglich. Die Benutzerführung durch die TV- und Programm Einstellungen ist eingängig, das EPG (elektronischer Programmführer, früher Teletext) läuft etwas hakelig, der Abruf eines Video-On-Demand Dienstes gelingt sofort. Wer hier schon jubelt: Die Box besitzt keine Festplatte.

Die Video-Abteilung ist bei Hansenet zurzeit noch mit wenigen Highlights beseelt, für einen Film werden zwischen 1,90 und 3,90 EUR berechnet, einige Filme und GEO-Reportagen lassen sich unentgeltlich anschauen. Am weitesten ist natürlich die Erotik-Sparte ausgebaut, hier werden diverse Filmchen des Immergleichen angeboten. Ein Hinweis auf die hauptsächlich anvisierte Zielgruppe?

An den Schnittstellen der Settop-Box der Firma ADB zeichnet sich schon die Zukunft ab. Hier ist neben dem herkömmlichen SCART-Ausgang und Cinch-Buchsen zusätzlich ein HDMI-Ausgang implementiert. Noch ist dieser nicht geschaltet, über ihn könnten zukünftig aber die hochauflösenden HDTV-Signale an den Bildschirm geliefert werden. Für die ruckelfreie Übertragung von HDTV genügt ADSL nicht mehr, gerade dann, wenn in einem Haushalt verschiedene Programme laufen oder eine Sendung aufgezeichnet, parallel aber eine anderen Sendung angeschaut wird.

Egal ob bei Hansenet, Telekom oder einem der anderen in den Startlöchern stehenden Anbieter: Damit über die herkömmliche Kupferleitung neben Internet und der Telefonie nun auch noch Fernsehsender übertragen werden können waren einige technische Hürden zu nehmen. Zum einen weist die herkömmliche, paketorientierte Übertragung von Datenströmen über das Internet Protocol (IP) Schwächen auf: Das TV-Programm der Sender wie ARD, SAT1 und anderen muss für den Videostream in IP-Pakete aufgesplittet werden. Im Netz wären diese Pakete dann grundsätzlich anderen Paketen, wie beispielsweise den Auslieferungen von Webseiteninhalten, gleichgestellt. Um einen für den flüssigen Empfang unbedingt notwendigen Durchsatz zu gewährleisten, müssen die TV-Pakete vorrangig behandelt werden. Dieser „Quality of Service“ (QoS) genannte Vorgang ist natürlich einfacher, wenn man Kontrolle über das gesamte Netz hat, von der Einspeisung bis zum Enduser also keine Verzögerungen auftauchen (end to end control).

Hinten anstellen

Trotz ADSL und VDSL kann selbst ein voll kontrolliertes Netz keine 100 TV-Sender parallel in 1000 oder gar Millionen von Haushalten übertragen. Die Signale stehen daher nicht wie beim Empfang über die Satelliten-Schüssel alle frei verfügbar in der Luft, sondern werden erst dann angefordert, wenn der Kunde an der Settop-Box den betreffenden Kanal aufruft. Die Box nutzt dazu das IP Group Membership Protocol (IGMP v2) und sendet in dem Moment einem Aufnahmeantrag für eine neue Multicast-Gruppe an den Provider. Dieser überprüft die Berechtigung des Nutzers und weist erst dann seine Router an, ihn auf die Liste der gewünschten Multicast-Gruppe des TV-Kanals zu setzen. Bis zum DSLAM läuft das Signal dann durch Glasfaser, wird dort demoduliert und in die Kupferader bis zum Kunden eingespeist. Nur IP-Multicast ermöglicht es also, dass in TCP/IP-Netzwerken effizient Daten an viele Empfänger zur gleichen Zeit gesendet werden können.

Alice empfängt auf dem Hansenet-Gelände im Nordosten Hamburgs mit fünf Satelliten-Schüsseln die Mpeg2-Signale der verschiedenen TV-Sender. Pro Fernseh-Kanal ist nun ein Encoder notwendig, um die Signale auf das Mpeg4 AVC Format zu codieren. Eine IPTV-Middleware von Alcatel (5950 Open Media Platform) ist die Steuerzentrale für die gesamte IPTV-Plattform. Die Datenbank verteilt die IP-Ströme an die verschiedenen Kunden. Alcatel hat auch die Schnittstellen zur Einbindung der Abrechnungs- und Verwaltungssysteme entwickelt. Diese Systeme kommunizieren mit der Settop-Box, die der Kunde auf seinem Fernsehgerät zu Hause stehen hat.

Im Gebiet der Hansestadt Hamburg sind Bandbreiten bis 16 Mbit/s möglich. An den Kunden werden mindestens 2,5 Mbit/s in guter Qualität bei PAL-Auflösung ausgeliefert. Dafür ist kein VDSL nötig, ein ADSL-Anschluss mit 4 Mbit/s im Downstream reicht aus.

Graue Eminenzen

Seit rund einem Jahr baut die T-Com ihre Verteilereinheiten in zehn Großstädten Deutschlands durch beeindruckend große DSLAMs (DSL Access Multiplier) aus. Die neuen grauen Kästen am Straßenrand fallen ins Auge. Über Glasfaser sind diese mit den Ortsvermittlungsstellen verbunden. Damit wird es möglich, Teilnehmer mit VDSL2-Anschlüssen zu versorgen, die eine Datenübertragungsrate von 100 Mbit/s und mehr haben können. Zunächst sind 25 Mbit/s geplant, das ist mehr als ausreichend, um das Schlüsselprojekt „Fernsehen über das Internet“ voranzutreiben.

ADSL (auch mit seinen schnelleren Varianten ADSL2 und ADSL2+) ist zwar eng verwandt mit VDSL und VDSL2. Allerdings darf bei VDSL die Entfernung zwischen dem DSLAM auf der Straße und dem DSL-Modem in der Wohnung 1500 Meter nicht überschreiten, danach sinkt das Niveau auf ADSL2+ Niveau herab. Mit anderen Worten: HDTV funktioniert unter Vollast nur dann wirklich störungsfrei, wenn die Kupferaderleitung nicht zu lang ist. So begründet sich die breit angelegte Aufstellung der Outdoor-DSLAMs in den Kerngebieten der Großstädte. Nicht umsonst haben diese Kästen umlaufenden Lüftungsschlitze: Voll ausgebaut beliefern sie mehrere hundert xDSL-Kunden und verbrauchen dabei bis zu 1 kW.

ADSL und VDSL2 nutzen unterschiedliche Transportprotokolle. Bei den herkömmlichen ADSL packt das Modem am PC die Ethernet-Pakete in PPP-Pakete (PPPoE), diese werden wiederum in kleinere ATM-Zellen gekapselt und über die DSL-Strecke verschickt. VDSL verzichtet auf ATM und versendet reine Ethernet-Pakete. Der Vorteil: Die DSLAMs müssen nicht mit einem teurem ATM-IP-Gateway bestückt werden und können mit vergleichsweise preiswerten Gigabit-Ethernet-Glasfaser angebunden werden.

Ausnahmeregulierung

Die IPTV-Signale von Hansenet laufen allerdings nicht über die grauen DSLAMs der T-Com am Bürgersteig, ein Umstand, den der ehemalige Staatskonzern auch so lange wie möglich aufrecht erhalten will. Schließlich hat man viel Geld in den Ausbau der VDSL-Infrastruktur gesteckt, man fordert von der Bundesregierung die vorläufige Ausnahme von der Regulierungspolitik, die es den Mitbewerbern normalerweise erlaubt, die Leitungen der Telekom zu nutzen. Hansenet schickt daher IPTV über sogenannte Kollokationsräume, von denen die Firma rund 120 im Stadtgebiet verteilt hat. Die DSLAMs von Hansenet stehen in diesen Räumen, von dortaus läuft das Signal über die normale Kupferleitung bis zum Kunden.

Das Unternehmen wie Hansenet das Produkt IPTV bisher noch gar nicht bewerben liegt an der Komplexität der erweiterten DSL-Technik: Immer mehr Leitungen im selben Kabelbündel übertragen DSL-Signale, sogenannte „Übersprechungen“ nehmen zu. Dazu kommen Störungen durch Einschaltimpulse elektrischer Verbraucher und durch Funkwellen. Die technischen Maßnahmen gegen Crosstalk und andere Störungen sind zwar ausgereift, müssen ihre Wirksamkeit aber unter Alltagsvollast noch beweisen. Noch kam es im Testbetrieb des Autors an wenigen Fernsehabenden zwei bis drei mal zu halbsekündlichen Aussetzern, die sich in Klötzchenbildern niederschlugen. Hansenet will das Produkt optimieren, bevor das Unternehmen ab Anfang 2007 Home TV in weiteren deutschen Städten anbietet. Alcatel gab an, ab sofort ein Tool bereitzustellen, mit dem gemessen werden kann, ob die Leitung zum Kunden IPTV störungsfrei liefert. Bewusst langsam erweitert man den Kundenkreis, die Versuche der Konkurrenz werden beobachtet. Auch Testversuche mit dem T-Home Angebot der Telekom verliefen zum Teil holprig (‚ct 25/2006, S.182).

Faszinierend bleibt, wie im Zeitalter der optischen Hochleistungs-Übertragungswege die über ein Jahrhundert alte Telefonleitung mit ihrem doppeladrigen Kupferkabel weiterhin als Trägermedium dient. Durch sie werden nicht nur Sprachtelefonie und DSL-Signale parallel versandt. Im Testbetrieb des Autors kam es trotz gleichzeitiger Nutzung von Telefon, FTP-Download, Webseitenaufruf, Tauschbörsennutzung und IPTV zu keinen oberflächlich sichtbaren Beeinträchtigungen einer der Übertragungswege. Und das wohlgemerkt ohne VDSL.

Telepolis Artikel-URL: http://www.heise.de/tp/r4/artikel/24/24244/1.html

 

Kategorien
Elektronische Kultur

Die IT-Struktur von Sabre

Computer Zeitung, 09.10.2006

Drei Datenbankgenerationen wirken zusammen

Jörg Auf dem Hövel

(Als Original PDF)

Trennung von Info und Applikation ist bei Sabre nicht durchgehend – Synchronisations-Tool verwaltet Zusammenspiel verschiedener IT-Philosophien

Es ist mittlerweile über 12 Jahre her, dass der Reisereservierungs-Gigant Sabre über einen Umzug seines Buchungssystem von der bewährten IBM Mainframe auf eine neue Plattform begann nachzudenken. Bis dato hatten die Techniker die Anwendungen und Middleware intern programmiert, Reisebüromitarbeitern wurden am System geschult, die meisten Abfragen mündeten in Buchungen. Aber die Anforderungen an das System waren gestiegen: Nicht nur immer mehr Reisebüros und Fluggesellschaften griffen auf die Datenbank zu, durch den Ausbreitung des Internet-Zugänge war man auch mit einer zunehmenden Anzahl von Endkunden konfrontiert. Diese verlangten viele Suchoptionen bei kurzen Antwortzeiten. Die Kosten stiegen, seither befindet sich Sabre in einer ständigen Modifikation ihres IT-Systems.

Mit Stolz verweist Sabre darauf, dass man mehr Transaktionen pro Sekunde verarbeitet als die New Yorker Börse. Die Zahlen sind tatsächlich beeindruckend: Die Pricing-Applikationen hält ständig 20 Millionen Tarife und deren Bedingungen sowie 1,5 Millionen Flugpläne auf dem aktuellsten Stand. Es erhält 350 Millionen Nachrichten am Tag, in Spitzenzeiten 18.000 per Sekunde. 2005 wurden 340 Millionen Buchungen vorgenommen.

In den 60er Jahren hatten IBM und American Airlines in einem Projekt Hard- und Software aufeinander abgestimmt, um das anspruchsvolle Projekt eines ständig verfügbaren Reservierungssystems zu bewältigen. Entwickelt wurde das TPF (transaction processing facility), das nur auf Großrechnern von IBM lief. Spätestens mit dem Eintritt des versierten, optionshungrigen Websurfers stiegen die Anforderungen an die CPU, die das TPF kaum noch erfüllen konnte. In der IT-Abteilung sprach man „shopping problem“. Dazu kam: Das System galt schon immer als teuer im Unterhalt und äußerst schlecht Skalierbarkeit.

Im Jahr 2000 startete Sabre daher zusammen mit Compaq einen Versuch, die damals entwickelte Himalaya „NonStop“ Plattform für Sabre nutzbar zu machen. Das Ziel: Kostenminimierung bei gleichzeitiger Erhöhung der Skalierbarkeit und Flexibilität des Systems. Zwei Jahre später, Compaq war mittlerweile von Hewlett Packard übernommen, wurden die ersten 17 Stück der S8600 NonStop Server als fehlertolerante Hauptdatenbank aufgeschaltet. Die Rechner verfügen über eine redundante Prozessor-Architektur und gewährleisten hohe Ausfallsicherheit. Beim ersten Anlaufen war man überrascht: Die NonStop Server bewältigen die gesamte operationale Last mit gerade einmal 7 Prozent ihrer Prozessorkapazität. Bei Sabre war man dermaßen überzeugt von dieser Leistung, dass man auch andere Anwendungen wie das Ticketing auf die NonStop Plattform schob.

Diese dient heute vor allem da, wo read/write Prozesse gefordert sind, so beispielsweise bei Kundendaten. Ein kompletter Umzug der Datenbank auf NonStop ist nicht geplant, gerade bei read-only Daten wie Flugpreisen sei man weiterhin sehr zufrieden mit TPF. Dies bedeutet, dass sich bei Sabre unterschiedliche Architekturen mischen. Während grundsätzlich ein Mehrschichtenmodell herrscht, das die Geschäftsebene von der Datenbank trennt, gibt das Betriebssystem von IBM-TPF die parallele Anordnung von Applikations- und Datenbankzugang vor.

Einen ersten Schritt Richtung Open-Source wagte Sabre vor 15 Jahren. Die CPU- und speicherhungrigen Preisabfragen wurden auf 45 Vierwege rx5670 von HP (Intel 64-bit Itanium Prozessoren, 32 GB RAM) ausgelagert, auf denen eine SQL-Datenbank unter Red Hat Linux lief. Sabre setzt eigenen Angaben nach auch heute immer dann gerne auf Linux, wenn horizontales Skalierung gefragt ist, also durch die einfache Zuschaltung weiterer Server die Kapazität erhöht werden kann. Die Schnelllebigkeit der Branche führte dazu, dass man momentan dabei ist, die rx5670 Maschinen auszumustern und zu ProLiant DL585 Servern mit (dual-core) Opteron-Prozessoren zu wechseln.

So entstand eine hybride Architektur mit hochmodernen Servern und bewährten „Altlasten“: Auf der einen Seite ein Cluster mit NonStop Servern, auf der anderen Seite die IBM-Großrechner der zSerie mit TPF. Hier werden die wichtigen back-end Aufgaben erledigt und die Transaktionsdaten bearbeitet. Dazu kommt eine stetig wachsende Farm von preiswerten Linux-Systemen, die die CPU-hungrigen Abfragen und die SQL-Datenbank beherbergt.

Das Zusammenspiel der beiden Ebenen garantiert die Firma „GoldenGate“. Deren Synchronisations-Software registriert jedwede Modifikation in der NonStop Datenbank, transformiert sie für die SQL-Datenbank und leitet sie zu der Server-Farm. Die SQL-Datenbank beinhaltet 150 Tabellen, die NonStop Plattform 280. Stündlich kommen bis zu 300.000 Updates zustande, im Durchschnitt beherbergt ein Server rund 50 Gigabytes an Daten. Zählt man die verschiedenen Datenbanken zusammen, kommt Sabre auf über 50 Terybytes an Daten.

Ende der 90er Jahre standen einem Benutzer bei Sabre neun Buchungs-Optionen zur Verfügung, 2004 waren es schon 19, heute sind es Hunderte: Preisvergleiche, Flugalternativen, Mietwagen, Hotelzimmer, integrierte Reiserichtlinien. Die Komplexität des Systems ist deutlich: Für eine einzelne Abfrage eines Kunden muss die Shopping- und Pricing-Applikation über 3 Millionen mögliche Tarif-Kombinationen berücksichtigen. Mehr als drei Sekunden Wartezeit gelten bei Web-Surfern heute schon als unakzeptabel, rechnet man die Transitzeiten hinzu, müssen die Sabre-Server also in Millisekunden reagieren.

2001 gab Sabre das gesamte Management seiner IT-Systeme an EDS (Electronic Data Systems) ab, die Firma, die 1962 vom späteren Milliardär und Präsidentschaftskandidaten Ross Perot gegründet wurde. Der Vertrag hat eine Laufzeit von zehn Jahren und ein Volumen von immerhin 2,2 Milliarden US-Dollar. Rund 4.200 Mitarbeiter der IT-Abteilung von Sabre wechselten zu EDS. EDS sorgt auch dafür, dass die redundanten Datencenter per Glasfaserstrecken miteinander verbunden sind.

Die Sabre Holding ist heute in drei Geschäftsbereiche aufgeteilt: „Sabre Travel Network“, „Travelocity” und “Sabre Airline Solutions”. Das Sabre Travel Network mit seinem oben beschriebenen globalen Reservierungs– und Distributionssytem (GDS und CRS) verbindet Reisebüros und Lieferanten mit Kunden. Mindestens 50.000 Reisebüros sind hier weltweit angeschlossen, dazu über 400 Fluglinien, 72.000 Hotels, 32 Mietwagenfirmen, 35 Bahngesellschaften und 11 Kreuzfahrlinien. In Deutschland ist hier auch die Geschäftsreise-Online-Booking-Engine “GetThere” angeschlossen. Travelocity ist die für jedermann online verfügbare Internet Booking Engine, zu der auch lastminute.com und holidayautos.com gehören. Die Sabre Airline Solutions stellt Service für Airlines bereit. Alle diese drei Geschäftsbereiche greifen auf die in den USA verteilte Datenbanken zu.

Kategorien
Bücher Elektronische Kultur

Abenteuer Künstliche Intelligenz

Buchcover Abenteuer Künstliche Intelligenz. Auf der Suche nach dem Geist in der Maschine
Ist Künstliche Intelligenz machbar oder scheitert sie an natürlicher Dummheit? Was treibt Forscher dazu kluge Maschinen bauen zu wollen, was treibt sie zum Nachbau des Menschen? Was ist überhaupt ein intelligentes Artefakt, und was überhaupt ist Intelligenz?

Die Antworten auf diese Fragen berühren nicht nur das technische, sondern auch das soziale, kulturelle und religiöse Selbstverständnis des Menschen. Denn durch KI will der Mensch nicht nur die Gesetze der Natur, sondern auch sich selbst erkennen.

Jörg Auf dem Hövel
Abenteuer Künstliche Intelligenz
Auf der Suche nach dem Geist in der Maschine
Hamburg 2002
ISBN: 3-9807330-4-1
194 Seiten, Broschur
EUR 14,00
Discorsi Verlag

 

REZENSIONEN

Frankfurter Allgemeine Zeitung v. 13.05.2003
„Einfache Antworten gibt Jörg auf dem Hövel nicht – wohl aber eine Reihe ebenso geistreicher wie amüsanter Denkanstöße.
Auf dem Hövel hat ein lehrreiches Buch mit vielen Anhaltspunkten zum Nachdenken geschrieben, das auch für den Technik-Laien verständlich ist.“
(Hier der gesamte Text der Rezension.)

IX. Magazin für professionelle Informationstechnik 8/2003
„Es gelingt ihm, die Grundlagen in einem zweitweise an Spiegel-Artikel erinnernden Ton zu diskutieren, ohne flach zu werden. Seine Reiseberichte packt er in eine kraftvolle, metpahernreiche Sprache, die sich meist süffig liest, aber immer wieder von dicht formulierten Abschnitten unterbrochen ist – schließlich handelt es sich um ein Lehrbuch der ganz anderen Art.“
(Hier der gesamte Text der Rezension.)

de:bug November 2003
„Jörg Auf dem Hövel will so etwas sein wie der Peter Lustig der Künstlichen Intelligenz, kurz KI.“
(Hier der gesamte Text der Rezension.)

Mac Profiler 12/2002
„Ein intelligentes und ein bisschen verrücktes Buch, das um ein paar Ecken zu verblüffenden Perspektiven auf den Computer verhilft.“
(Hier der gesamte Text der Rezension.)

rtv magazin 22/2003
„Fachkundig, neugierig, hochinformativ & zugleich unterhaltsam. Eine seltene Mischung.“
(Hier der gesamte Text der Rezension.)

Buch des Tages 5. April 2003
„Unterhaltsam und kompetent“
(Hier der gesamte Text der Rezension.)

Chessbase
„Wäre „Abenteuer Künstliche Intelligenz“ von kein Buch, sondern ein Film, so wäre es wohl ein Roadmovie.“
(Hier der gesamte Text der Rezension.)

 

INHALT

0. Nullpunkt. Fasten your seatbelts
Das Kartenmaterial. Wie man sich zielbewusst auf eine Reise vorbereitet.

1. Wer erklärt wen für dumm?
Am Tisch mit nachweislich intelligenten Menschen, oder auch: Definitionen der eigenen Scharfsinnigkeit.

2. Erste Zwischenlandung: Schach matt!
Das 8×8 Felder große Universum, Alan Turing und die Geburtsstunde der Künstlichen Intelligenz.

3. Alte und Neue Intelligenz
Von der reinen Berechnung zum autonomen Roboter: Jeder Geist braucht einen Körper. Zu Besuch im Schweizer Zentrum des neuen Paradigmas. Und was überhaupt ist Bewusstsein?

4. Zweite Zwischenlandung: Abseits!
Bei den Bonner Fussball-Robotern und ihre antiken Vorfahren. Reflexionen des Geistes in der Maschine: Automaten und Androiden in Literatur und Kino.

5. Zivilisationshype: Amerikanische Träume
Was die Forscher am MIT so stark macht und was sie in die Irre treibt. Mit Joseph Weizenbaum in der Hotellobby.

6. Dritte Zwischenlandung: Ich will Technik sein!
Mechanisch, organisch, wer will das unterscheiden? Wie intelligente Technik übers Kinderzimmer in den Alltag wandert. Gespräch mit einem Cyborg, der noch keiner ist.

7. Im Kreis geflogen oder zurück in die Zukunft?
Möglichkeiten und Grenzen des maschinellen Denkens. Wenn der Mensch sich als Maschine deutet.

 

Fragen, Kommentare, Anregungen? Mail an den Autor: joerg@aufdemhoevel.de

 

 

Kategorien
Elektronische Kultur

Interview mit dem Pressesprecher von Google Deutschland über Blogs, Gut und Böse

Telepolis v. 18. 09.2006

Jenseits von Gut und Böse

Ein Interview mit Stefan Keuchel, Pressesprecher von Google Deutschland, über Blogs, Journalismus und den Unterschied zwischen Gut und Böse

Hamburger Innenstadt, Geschäftsmänner neben Shopping-Touristen, Fahrradkuriere und hupende Taxis. Im dritten Stock eines Bürokomplexes sitzt die deutsche Dependance der größten und erfolgreichsten Suchmaschine weltweit: Google (1). Schon am Eingang die erste Besonderheit. Man muss sich in ein System einloggen, Name und Auftrag eingeben und eine Vertraulichkeitsvereinbarung unterschreiben. Sodann wirft ein Thermo-Drucker ein selbstklebendes Schildchen mit einem Namen aus, das den Besucher ausweist.

Stefan Keuchel kommt flugs-kernig durch die Tür. Händeschütteln. Der Pressesprecher hat Hunger, das trifft sich gut. Der Tafelspitz in der betriebseigenen Mini-Kantine schreckt uns ab, ich greife trotzdem zu. Ein Warnhinweis hängt am Pfeiler: Kameras hängen im Raum, jeder muss damit rechnen, im Intranet beim unadäquaten Nasebohren in der Kantine beobachtet zu werden. „Durch die Kameras sehen alle, wann das Essen da ist“, erklärt Keuchel. Essen, Kaffee, Getränke, bei Google gibt es das alles umsonst. Die Belegschaft greift zu, es geht schnell. Alles geht schnell hier, eine behäbige Firma kann nicht alle paar Monate ein Produkt auf den Markt bringen, das die Online-Welt fasziniert oder zumindest irritiert.

Ein Mitarbeiter setzt sich zu uns, es geht um Tauchen in Ägypten, Problembären in Kanada und das unglaublich schöne Vancouver. Auch Googlerianer brauchen mal Urlaub. Rundgang. Die offenen Räume entsprechen dem Bild einer erfolgreichen Internet-Firma: Flottes Design, bunte Sofas, Lava-Lampen, ein Chill-Out Zone mit X-Box und Kicker. Bis auf die Arbeitsplatz-PCs ist wenig Technik zu sehen. Die meisten Mitarbeiter in der deutschen Google-Zentrale betreuen große Firmenkunden, erst zukünftig sollen auch Entwickler hier arbeiten.

In einem Flur hatte man eine Zeit lang die besten Artikel aus den größten Tageszeitungen und Magazinen ausgehangen. Dann ging man dazu über, nur noch die Cover-Storys einzurahmen, aber auch dafür ist der Flur inzwischen zu klein, Googles Durchgangs-„Hall of Fame“ verstaubt. Alle Konferenzräume bei Google tragen den Namen von bekannten Orten in Hamburg. Wir landen in Raum „Elbe“. Interview.

Google nimmt sich des Themas Blogs stark an. Warum ist das so?

Stefan Keuchel: Wir betreiben zur Zeit 30 Google-Blogs zu unterschiedlichsten Themen und Produkten. Der offizielle Google-Blog (2) hat seit der Eröffnung im Juni des letzen Jahres pro Tag rund 30.000 Besucher. Technorati sagt, dass der Google-Blog der einzige Corporate-Blog ist, der wirklich populär ist. Wir sind permanent in den Top 20. Heute ist es so, dass wir uns parallel zur Entwicklung eines neuen Produkts auch Gedanken über einen Blog machen, der das Produkt begleitet. Darin können wir dann Besonderheiten des Programms beschreiben und wertvolle Tipps geben. Der Adsense-Blog ist derzeit das einzige deutschsprachige Blog. Das liegt daran, dass auch in Deutschland immer mehr Website-Betreiber Adsense bei sich einbinden. Selbst kleine Webseiten können damit Geld verdienen, stark frequentierte sogar ziemlich viel.

So viel, dass die Print-Medien nervös werden. Werbung über Google Adsense steht in dem Ruf, erheblich zielgenauer und besser kontrollierbar zu sein.

Stefan Keuchel: Die Nervosität ist vielleicht berechtigt, auf der anderen Seite können die Printmedien auch partizipieren. Seiten wie Brigitte.de oder Max.de zeigen das. Die haben bereits die Vorteile des AdSense-Programms für sich entdeckt und generieren gute Einnahmen damit.

Wie Google auch.

Stefan Keuchel: Richtig. Vielen ist gar nicht klar, wie Google, obwohl der Suchdienst kostenlos ist, im letzten Jahr 6,1 Milliarden Dollar Umsatz generieren konnte. Mittlerweile trägt Adsense zur Hälfte dieses Umsatzes bei. Das automatisierte System ist inzwischen so gut, dass auf den Webseiten immer passende Werbung geschaltet wird. Auf einer Angelseite wird dann eben nicht für eine Waschmaschine geworben, sondern für Angelzubehör. Deshalb sind die Klickraten in diesem Bereich eben auch vier bis fünfmal höher als bei anderen Online-Werbeformen.

Wieviel erhält der Webseitenbetreiber prozentual pro Klick, wieviel Google?

Stefan Keuchel: Das genaue Verhältnis machen wir nicht öffentlich. Der Seitenbetreiber erhält aber, soviel kann ich sagen, mehr als 50 Prozent.

Zurück zu den Blogs. Für wen eignen sich die Online-Tagebücher?

Stefan Keuchel: Blogs sind ein schneller und direkter Weg, um mit bestimmten Zielgruppen in Kontakt zu treten. Das geht bei Firmen, die im IT-Bereich tätig sind, meist leichter von der Hand als beim Metzger um die Ecke oder einem Möbelhaus. Blogs sind sicher nicht für jede Branche ein geeignetes Kommunikationstool. Aber wenn die Zielgruppe sowieso schon internetaffin ist, dann bietet es sich an. Zudem ist ein Blog nicht so förmlich wie eine Pressemitteilung und der Journalist als Filter fällt weg.

Gleichwohl nutzen wenig Unternehmen Blogs als Kommunikationsmedium.

Stefan Keuchel: „Blog“ war das Wort des Jahres 2003 in den USA. Aber von den Fortune 500 Firmen in den USA sind es zur Zeit nur knappe sechs Prozent, die Blogs betreiben. In meinen Augen herrscht da unglaubliches Potential, das bisher nicht erkannt oder nicht genutzt wird. Die Menschen sind an großen Unternehmen interessiert und Blogs sind ein Kanal die Firma nach außen darzustellen.

In Deutschland dümpelt selbst der immer wieder zitierte Frosta-Blog, bis vor wenigen Monaten der einzige Corporate-Blog, vor sich hin.

Stefan Keuchel: Es ist dort wie so oft: Die Leute sind zwar begeistert von der Einrichtung, nur schreiben wollen die wenigsten dafür. Die Google-Blogs sind da heterogener.

Was unterscheidet dann noch einen Unternehmens-Blog von anderen Werbe-Instrumenten?

Stefan Keuchel: Wer einen Blog hauptsächlich als Werbeinstrument sieht, hat das Thema Bloggen offensichtlich nicht verstanden. Es gibt die Vermutung, dass einige CEO-Blogs gar nicht von den Verantwortlichen selbst, sondern der PR-Abteilung geschrieben werden. Das wird aber nicht funktionieren. Die Blogosphere ist da sehr sensitiv. Pressemitteilungen gehören auf die Presseseite und nicht in einen Blog.

Glaubt man den Zahlen von Technorati werden weltweit in jeder Sekunde zwei neue Blogs eröffnet. Noch verdoppelt sich jedes halbe Jahr die Anzahl der Blogs. Wer will das alles lesen?

Stefan Keuchel: Sicher ist, dass unter diesen Blogs eine riesige Anzahl von „Heute-war-ich-Schuhe-einkaufen“ und sogenannte „Montags-Blogs“ sind, die keine regelmäßigen Updates erhalten. Es ist doch logisch, dass solche Blogs nicht besonders populär werden. In Deutschland, so las ich vor kurzem, lesen nur fünf Prozent der deutschen Internetnutzer überhaupt Blogs. Doch diese Zahl wird ansteigen, denn es gibt auch immer mehr gut gemachte und interessante Blogs. Das ist eine Voraussetzung, damit Leser wiederkehren und im besten Fall zum Stammleser werden.

Interviewunterbrechung, unser Raum „Elbe“ wird benötigt, wir wandern zu Raum „Neuer Pferdemarkt“. Keuchel erzählt von einer Begebenheit: Vor einigen Monaten klingelte eine alte Dame an der Firmentür und wollte zur Röntgenabteilung von Google. Ihr Arzt hätte ihr gesagt, sie solle „ihr Beckenleiden bei Google recherchieren“. Das tat sie, allerdings offline. Sie suchte die Adresse von Google aus dem Telefonbuch und wurde vorstellig. Das Team am Counter erklärte den Irrtum und recherchierte mit ihr zusammen.

Ein paar Schritte und Google Logos weiter stehen in einer Vitrine die Auszeichnungen, die das Unternehmen bislang erhielt. Bis vor kurzem lag hier auch noch der aufgeschlagene Duden mit dem Begriff „googeln“. Der hauseigene Jurist sah das nicht gerne, man stellt Kontakt zur Duden-Redaktion her. Sollte der Begriff „googeln“ nämlich in die Umgangsprache als Bezeichnung für eine Abfrage in einer beliebigen Suchmaschine eingehen, wäre das Recht an der Marke „Google“ gefährdet. „Googeln“ ist daher heute laut Duden nur noch „Internetrecherchen mithilfe einer Suchmaschine durchführen“.

Sind die Deutschen eventuell gar nicht extrovertiert genug, um wie die USA zu einer „Blogger-Nation“ zu werden?

Stefan Keuchl: Im privaten Bereich kann ich mir das vorstellen, ja. Im Unternehmensbereich dagegen ist das eher eine firmenpolitische denn psychologische Entscheidung. Und hier wird aus meiner Sicht von deutschen Firmen eine Entwicklung im großen Stil verschlafen. Das ist erschreckend. Auch für Journalisten sind doch Firmen interessanter, die einen Blog auf ihre Webseite anbieten.

Kommt auf den Informationsgehalt des Blogs an.

Stefan Keuchl: Vielleicht fragt man in Deutschland zu schnell nach dem Nutzen. Von Firmen wird hier ja eher auf die Gefahren hingewiesen, die so ein Blog mit sich bringt. Grenzwertig wird es auch da, wo Firmen anfangen, Blogger mit Produkten auszustatten, damit diese über ihre Erfahrungen damit berichten. Da steht Glaubwürdigkeit auf dem Spiel.

Ein Drittel der weltweit aufgesetzten Blogs ist in englischer, ein Drittel in japanischer Sprache verfasst. Was weiß man über die japanische Blogger-Szene?

Stefan Keuchl: Wenig.

Sie sagten einmal: „Google liebt Blogs“, was auch an den vielen Backlinks läge. Besteht nicht die Gefahr, dass Blogs daher in den Suchergebnislisten übergewichtet werden?

Stefan Keuchl: Ich denke nicht. Blogs sind Blogs und Webseiten sind Webseiten. Google hat verschiedene Services, um die beiden Suchbereiche abzudecken, zu Überschneidungen kommt es nur dann, wenn ein Blog so bekannt wird, dass er in den Ergebnissen oben landen muss. Aber ein Google-Nutzer erwartet im Regelfall keine Blogs als obere Einträge, also werden wir darauf achten, dass hier auch weiterhin nur relevante Suchergebnisse erscheinen.

Gefährden Blogs den Online-Journalismus?

Stefan Keuchl: Die Menschen werden immer das Bedürfnis haben sich aus verlässlichen und vertrauenswürdigen Quellen gut aufbereite Nachrichten zu informieren. Blogs werden den Journalismus nicht ersetzen, aber das Konsumverhalten ändert sich. Zukünftig wird man neben einer klassischen Nachrichtenquelle eben auch einen Blogbeitrag lesen, um eine andere Sicht auf die Dinge zu erhalten. Man denke an das Bombenattentat in London: Dort bloggten nur Minuten nach den ersten Detonationen die ersten Leute vor Ort. Größtenteils mit sehr eindrucksvollen Beschreibungen der sich dort abspielenden Szenen.

Wie kam es zur Kooperation mit der Nachrichtenagentur Association Press? Warum bezahlt Google plötzlich für Inhalte?

Stefan Keuchl: Dies ist tatsächlich ein neuer Schritt für Google, wir verweisen nicht mehr nur auf Inhalte, sondern bieten sie teilweise selber an. Entwickelt wird ein neues Feature für Google News, die News-Seite soll dadurch noch interessanter und informativer werden. Ich darf leider noch nicht darüber sprechen, wie das genau aussehen wird, aber ich kann versichern, dass Google News Nutzer auf keinen Fall dafür zahlen müssen.

Wie kommt es zu diesem enormen Ausstoß von immer neuen Produkten bei Google?

Stefan Keuchl: Die Hälfte der Google-Mitarbeiter sind Ingenieure. Diese Kollegen haben einfach Spaß daran, immer neue Dinge zu entwickeln. Wir haben eine Liste von 100 Produkten, die in „der Pipeline“ stecken und an denen bereits gearbeitet wird. Es arbeiten immer kleinere Teams von ca. 5-7 Leuten an einem Produkt. Daher können wir neue Services und Produkte relativ schnell entwickeln und auf den Markt bringen. Auch der Launch-Kalender für den deutschen Markt verspricht noch in diesem Jahr einige interessante neue Produkte.

Mit der Größe des Unternehmens wuchs auch die Kritik an Google. In den Augen einiger Netizens war Googles zensierter Webauftritt in China der Stein des Anstoßes.

Stefan Keuchl: Der Markteintritt in China war auch intern ein sehr kontrovers diskutiertes Thema. Aber wir haben uns dazu entschlossen, weil wir festgestellt haben, dass Millionen von Chinesen versucht haben, auf Google.com zuzugreifen. Das wurde allerdings von der sogenannten „Great Chinese Firewall“ erschwert oder gar verhindert. Daher war es ein konsequenter Schritt, Google.cn auf den Weg zu bringen. Zumal unsere Wettbewerber alle längst in China waren. Im Gegensatz zu unseren Wettbewerbern zeigen wir übrigens an, dass gewisse Suchergebnisse auf Grund lokaler Gesetze nicht angezeigt werden. Das ist in China nicht anders als in Deutschland oder auch den USA. Interessanterweise haben wir auch im Fall China versucht, unsere Beweggründe über unseren Corporate Blog zu erläutern.

Aber da kommt es doch nicht zu einer wirklichen Dialog mit den Kritikern?

Stefan Keuchl: Das stimmt natürlich. Der Blog versucht nur zu erklären, wieso wir diesen Weg gegangen sind. Kritikern stellen wir uns aber bei vielen Gelegenheiten, sei es auf Konferenzen, Vorträgen oder auch in Interviews. Kritiker von Google gibt es immer mehr. Spätestens seit Börsengang ist vielen klar geworden, dass Google eben keine Garagenfirma ist, die zu besonderen Anlässen mal ihr Logo verändert, sondern ein Milliarden-Dollar-Unternehmen. Und es ist ein normaler und guter Vorgang, dass vermeintlich mächtige Unternehmen kritisch beäugt werden.

Wie kam es eigentlich zu dem Firmengrundsatz „Sei nicht böse“?

Stefan Keuchl: Entstanden ist dieses Motto eigentlich einmal als interne Marschrichtung. Bei einem Meeting unter den ersten sechs Google-Kollegen kam die Frage auf, wie man eigentlich arbeiten wolle und wie die Marschrichtung ist. Es kam dann zu diesem salopp dahingeworfenen Satz eines Kollegen, „do no evil“. Dieser prägnante Satz hat in den Augen von Larry Page und Sergey Brin ihre Philosophie sehr gut auf den Punkt gebracht. So blieb dieser Spruch lange Zeit intern, tauchte aber dann eines Tages auf unserer Webseite auf und nahm so seinen Weg. Das Problem mit diesem Spruch ist: Es ist ein leicht anzugreifendes Motto, da jeder eine andere Meinung davon hat, was „böse“ ist.

Die Bereitstellung und Sortierung von vielen Informationen ist ein Ziel, das eben auch Probleme aufwirft.

Stefan Keuchl: Richtig, dies zeigt sich zur Zeit bei der Google-Buchsuche. Hier geht es darum, einen Wunschtraum der Menschheit zu erfüllen, und das Wissen, das in Büchern steckt, für jedermann zugänglich zu machen. Aus meiner Sicht an sich kein schlechtes Unterfangen.

Vor allem dann, wenn Urheberrechte abgelaufen sind.

Stefan Keuchl: Sicher, das gilt es zu beachten. Der Grundgedanke geht auf das erste Zusammentreffen von Larry und Sergej zurück, die darüber sinnierten, wie schön es wäre, wenn man zu jederzeit auf die Informationen dieser Welt zugreifen könnte. Das ist weiterhin unsere Motivation und hat sich auch in unserer Mission, „die Informationen dieser Welt zu organisieren und jedermann zugänglich zu machen“, manifestiert.

Wann musste Google Entscheidungen zwischen „Gut und Böse“ treffen?

Stefan Keuchl: Ich will ein Beispiel dafür geben. Larry wurde einmal ein Vorschlag gemacht, der ein Google-Produkt so verändern wollte, dass beträchtlich mehr Geld damit zu verdienen gewesen wäre. Larry fragte nur, wo der Vorteil für den Nutzer wäre – den gab es aber nicht und damit war das Thema von Tisch. Und so gibt es auch heute viele Services und Dienste, die nicht kommerzialisiert sind. Nehmen Sie beispielsweise Google News oder die Bildersuche. Diese Dienste sind werbefrei und wir verdienen absolut kein Geld damit.

Wird der Anspruch, nie Böses tun zu wollen, mit wachsender Größe und Kapitalkraft eines Unternehmens nicht immer schwerer zu erfüllen?

Stefan Keuchl: Wie schon gesagt, Sie haben sicher eine andere Auffassung darüber, was böse ist, als ich. Und ein Dritter hätte wiederum eine komplett andere Meinung darüber. Daher haben Sie Recht, der Anspruch ist schwer zu erfüllen. Ich kann dazu nur sagen, dass der Erfolg von Google abhängig ist von dem Vertrauen seiner Nutzer in Google. Wir wären beispielsweise sehr schlecht beraten, sorglos mit den Daten unserer Nutzer umzugehen. Der Schutz der Privatsphäre unserer Nutzer steht daher an erster Stelle. Unsere Datenschutzbestimmungen kann jeder Nutzer jederzeit einsehen und nachlesen. Derjenige, der das tatsächlich tut, wird feststellen, dass wir weder Daten an Dritte verkaufen, noch Nutzerprofile erstellen.

Aber was passiert, wenn Google verkauft werden würde?

Stefan Keuchl: Diese Frage lässt sich natürlich aus heutiger Sicht schwer beantworten. Zunächst einmal bestehen keinerlei Pläne, Google zu verkaufen. Ganz im Gegenteil. Doch ich bin felsenfest davon überzeugt, dass selbst dann, wenn es eines Tages dazu kommen würde, sicher gestellt wäre, dass kein Missbrauch mit Google-Nutzerdaten geschehen könnte. Denn das möchte niemand bei Google.

(1) http://www.google.de/
(2) http://googleblog.blogspot.com/

 

 

zurück zur Startseite von Jörg Auf dem Hövel mit weiteren Interviews und Artikeln

 

Kategorien
Elektronische Kultur Mixed

Glasfasernetz bricht alle Rekorde

Computerwoche, 01.09.2006

Glasfasernetz bricht alle Rekorde

Vor kurzem hat das „Win-X“, die vierte Generation des Deutschen Forschungsnetzes, den Dienst aufgenommen. Reine Glasfaserkabel erlauben Datenraten im Terabit-Bereich.

Beim Deutschen Forschungsnetz (DFN) handelt es sich um eines der leistungsfähigsten Datenkommunikationsnetze weltweit – mit entsprechend komplexer Infrastruktur (siehe Kasten „Die vierte Generation des DFN“). Die Datenmengen, die von den verschiedenen Universitäten und Institutionen untereinander ausgetauscht werden, sind enorm. Der Versand über das Internet wäre fehleranfällig, zudem würde er hohe Investitionen in Router-Techniken verursachen.

Hochleistungsrechner koppeln

Das mittlerweile in vierter Generation unter dem Namen „X-Win“ existierende DFN ist – wie auch der europäische Bruder „Géant2“ – als hybrides Netz aufgebaut: Es unterstützt sowohl den IP-Verkehr als auch geschaltete Punkt-zu-Punkt-Verbindungen. Typische Anwendungen für Letztere sind die Datenverteilungen von Teilchenbeschleunigern, die Kopplung von Hochleistungsrechnern oder die Auswertung von Daten aus Sternwarten.

xwin topologie

Diese Verbindungen durchziehen wie Tunnel das Netz und verbinden die Wissenschaftsstandorte direkt, ohne dass die übertragenden Daten für den Internet-Verkehr sichtbar sind. Davon verspricht sich die Forschergemeinde nicht nur Unabhängigkeit von den großen Routern, sondern – dank der strukturell einfachen Verkehrsbeziehungen – auch besser planbare Datenströme.

Das LHC-Experiment des Cern

Dazu ein Beispiel: Das Forschungszentrum Karlsruhe wird ab 2008 am LHC-Experiment (Large Hadron Collider) des Cern in Genf beteiligt. Der unterirdische Teilchenbeschleuniger generiert dann Datenströme von einer Million Gbyte/s (1 Petabyte). Pro Jahr wird der 26,7 Kilometer lange Ring Experimentaldaten in der Größenordnung von drei Millionen DVDs ausspucken.

Für die Auswertung wird in Karlsruhe ein PC-Cluster mit mindestens 4500 Prozessoren neuester Technik installiert. Sie sollen eine Rechenleistung erbringen, die der von 22000 Pentium-III-Prozessoren (mit einem Gigahertz) entspricht. Dieses „Gridka“ wird 1500 Terabyte an Daten auf Festplatten und rund 3800 Terabyte auf Bändern speichern. Die Rechnerschränke und damit das gesamte PC-Cluster werden vollständig mit Wasser gekühlt.

Weltweit arbeiten 5000 Wissenschaftler aus 50 Nationen an dem Experiment. Große Projekte dieser Art sind nach Ansicht der Forschergemeinde nur noch in technisch enger internationaler Kooperation zu leisten. Ein schnelles und stets verfügbares Kommunikationsnetz ist dafür unabdingbar.

Das X-Win besteht im Kern aus drei untereinander verknüpften Ringstrukturen – im Norden, der Mitte und dem Süden der Republik. Um einen möglichst umfassenden Zugriff auf die Physik der Leitungen zu haben, hat der DFN-Verein hauptsächlich „Dark Fiber“ angemietet, also die pure Glasfaser. Nur wenn das nicht möglich war, griff er auf angemietete Wellenlängen zurück. Die Trassen (siehe Abbildung) sind so vermascht, dass in jedem Fall mindestens zwei unabhängige Wegführungen existieren.

Die nötigen Glaserfaserstrecken hat das DFN mit Zehnjahresverträgen beim holländischen Telekommunikationskonzern KPN und bei der deutschen Gasline angemietet, einem Spinoff diverser Energieversorger. KPN hat 2200 Kilometer Dark Fiber für den DFN-Verein bereitgestellt; insgesamt besitzt der Provider in Europa Glaserfaserringe mit insgesamt 25000 Kilometern Länge. Das Lichtwellenleiternetz der Gasline ist in Deutschland mehr als 7800 Kilometer lang. Sein Vorteil: Die meisten Trassen des X-Win befinden sich – bis auf die „Last Miles“ zu den Forschungsgebäuden – entlang der physikalisch gut geschützten Gas-Pipelines; zudem übernimmt Gasline die Wartung der Leitungen.

Siebenmal dünner als ein Haar

In einem normalen Glasfaserkabel stehen 144 Fasern zur Verfügung. Um sie optimal zu nutzen, kommen „Wavelength-Division-Mulitplexer“ (WDM) zum Einsatz. Dabei werden bis zu 16 Wellenlängen mit maximal 10 Gbit/s auf eine einzelne Faser gelegt. An der Quelle wandelt der WDM die elektrischen Signale aus dem Ethernet per Laser in optische Signale um.

Diese Lichtwellen unterschiedlicher Länge laufen durch die Glasfaser, die siebenmal dünner als ein menschliches Haar ist, ohne sich gegenseitig zu stören. Auf diese Weise stehen mehrere, voneinander unabhängige Übertragungswege zur Verfügung. Am Empfangsort bereitet ein WDM aus den Wellen wieder elektrische Signale. Der Auftrag zur Überwachung des Gesamtnetzes ging an ein Konsortium, das von den Anbietern Colt und Dimension Data gebildet wird. An 35 Kernnetzstandorten des X-Win kommen (Dense-)WDMs von Huawei („Optix BWS 1600g“) zum Einsatz, die bis zu 160 Wellenlängen mit 16 Gbit/s unterstützen. Geräte dieser Baureihe speisen beispielsweise auch das atlantische Unterseekabel zwischen Halifax (Kanada) und Dublin (Irland).

Als Vermittlungseinheiten dienen an zentralen Stellen Cisco-Router vom Typ „CRS-1“ der neuesten Bauart. Das Forschungsnetz ist also kein billiges Vergnügen: Die Router hatten bei ihrer Vorstellung im vergangenen Jahr einen Orientierungspreis von rund 450000 Dollar pro Stück. An weiteren acht Orten sind Cisco-Router der Baureihe 7609 in das X-Win eingebunden.

Insgesamt sind an den über 500 Standorten in Deutschland Anschlusskapazitäten von bis zu 10 Gigabit/s möglich. 46 Standorte sind derzeit an das „Kernnetz“ angeschlossen, wo sich bei Bedarf die Kapazität in den Terabit-Bereich erweitern lässt. Von diesen Institutionen sind 38 mit 5500 Kilometer Dark Fiber verbunden.

Dieses Vorgehen hat seine Vorteile bereits ausspielen können: Mehrere Universitäten ermöglichen sich heute ein gegenseitiges Backup wichtiger Daten. Die Anschaffung und Wartung physisch getrennter und zudem feuergeschützter Speichermedien und -geräte entfällt.

Das X-Win ist kein geschlossenes Netz, Übergänge in das Internet sind über mehrere Gateways sichergestellt. Unter anderem ist das Netz an den größten deutschen Austauschknoten ins Internet, den Decix in Frankfurt am Main, angeschlossen. Gleich vier Gateways existieren zu T-Interconnect, weitere 16 zu anderen Internet-Ser- vice-Providern.

Stark ausgelastete X-Win-Standorte wie Karlsruhe sind mit 30 Gbit/s an die Nachbarstandorte angeschlossen. Kapazitäten von 32 mal 10 Gbit/s auf einer Faser werden derzeit auf Internet-Hochverkehrsstrecken wie Düsseldorf-Frankfurt am Main geführt, über die das Rhein-Ruhr-Gebiet mit dem Frankfurter Raum verbunden ist. Leitungskapazitäten von 80 Gbit/s bündeln sich an zentralen Schaltstellen wie dem Kernnetzstandort Frankfurt; hier kreuzt sich die Strecke zwischen Aachen und Erlangen mit der zwischen Karlsruhe und Hannover.

2,9 Petabyte pro Monat

Im monatlichen Mittel senden die Hochschulen und Forschungseinrichtungen, die über das X-Win miteinander vernetzt sind, fast 9 Gbit/s in das Netz, und sie empfangen annähernd dieselbe Datenmenge, so dass sich das Datenaufkommen pro Monat auf 2,8 Petabyte summiert. Damit entspricht der Datenverkehr in das X-Win hinein und wieder hinaus einem Fünftel des Verkehrs, der am DeCIX, dem „Herz des deutschen Internets“, fließt.

 


 

Die vierte Generation des DFN

Das Deutsche Forschungsnetz (DFN) ist ein von der Wissenschaft selbst verwaltetes Hochgeschwindigkeitsnetz, das Hochschulen und Forschungseinrichtungen untereinander und mit dem europäischen Ausland verbindet. Seit kurzem ist mit X-Win die vierte Generation in Betrieb. Alle wichtigen Forschungsinstitutionen sind Mitglieder im DFN-Verein: Helmholtz- und Leibniz-Gemeinschaft, das Berliner Zuse-Institut, Fraunhofer- und Max-Planck-Gesellschaft. Auch private Unternehmen wie die Schering AG, T-Systems und Hewlett-Packard setzen auf das X-Win. Insgesamt nutzen 2,5 Millionen User dieses deutsche Highspeed-Netz.

 

Kategorien
Elektronische Kultur Mixed

Freiflug für Buchschnipsel

Telepolis, 30.06.2006

Das Hamburger Landgericht beschert Google mehr als einen Teilerfolg beim Aufbau ihrer digitalen Bibliothek

Krawatten wurden zurechtgerückt, die Roben übergeworfen, dann ging es hinein in Raum 347 des Hamburgischen Landgerichts. Der Kläger: die Wissenschaftliche Buchgesellschaft (1) (WBG), Verlag und Buchgemeinschaft aus Darmstadt, rund 90 Angestellte. Die Beklagte: Google, Medienkonzern und Suchmaschine mit Hauptsitz in Kalifornien, rund 3.000 Angestellte weltweit. Welche Gewichtsklassen hier gegeneinander antreten, wurde auch an der Anzahl der Anwälte deutlich. Genau einer vertrat die WBG, vier saßen für Google im Ring, einer hatte sogar den weiten Weg aus Mountain View auf sich genommen. Das Streitobjekt: die deutsche Sektion der Buchsuche (2) von Google. Durch das massenhafte Einscannen von Büchern baut die Firma eine riesige Bibliothek für die Volltextsuche im Internet auf.

Die WBG sieht in diesen Vorhaben eine Verletzung ihrer Rechte, denn vor einiger Zeit tauchten Teile von urheberrechtlich geschützten Werken des Verlags bei Google auf. „Kein Problem“, sagte man bei Google wie üblich, „es gibt doch Opt-Out.“ Dieses Verfahren bietet man jedem Verlag an, der seine Bücher nicht in den Ergebnisfenstern sehen will. Das reichte der WBG nicht, man beantragte vor Gericht eine „einstweilige Verfügung“, ein scharfes Instrument, das Google im Falle einer Niederlage dazu gezwungen hätte, alle Digitalisierungsvorgänge sofort zu stoppen. Dementsprechend alarmiert war man in Kalifornien und dementsprechend böse auf die WBG, die ein Geschäftsmodell im Eilverfahren eingefroren hätte.

Bevor man vor Gericht zu den Kernfragen vorstoßen konnte, suchten die Google-Anwälte daher der Klage schon auf formaler Ebene den Wind aus den Segeln zu nehmen. Dem Hauptgeschäftsführer der WBG, Andreas Auth, warf man die Widersprüche in der Aussage vor, wann er von der angeblichen Urheberrechtsverletzung erlangt hätte. Zudem wurde die Aktivlegitimation bestritten, also die Befugnis der WBG, überhaupt einen Anspruch geltend zu machen. Und der WBG wurde vorgeworfen, dass sie nur als Stellvertreter für den Börsenverein herhalten würde. Fakt ist nur: Der Börsenverein des Deutschen Buchhandels unterstützt das Musterverfahren, er trägt auch die Prozesskosten.

Um das Eilverfahren und die Bedrohung des gesamten deutschen Buchhandels zu rechtfertigen, sprach der Anwalt der WBG von einer „netzartigen Ausbreitung“ des Google-Imperiums und bezeichnete die Geschäftsidee der Buchsuche als „plattwalzen“. Tatsächlich arbeitet der Börsenverein derzeit am Projekt „Volltextsuche online“, mit dem künftig auf digitale Inhalte zugegriffen werden kann. Aber Google hat hier wieder einmal Fakten geschaffen, jedwedes neue System wird es schwierig gegen den Platzhirsch haben.

Um in der Voranhörung des Prozesses aufgeworfenen Fragen endgültig zu klären, reichte der WBG-Anwalt sodann Testamentsauszüge ein, die eine Klagelegitimation bekräftigten sollten. Nach einer Stunde Verhandlungsdauer ließ sich der vorsitzende Richter zur Bemerkung hinreißen, dass man „zu den wirklich interessanten Punkte noch nicht gekommen“ sei. Die Kernfrage, die das Gericht zu beantworten hatte: Hat Google das Urheberrecht verletzt?

Die Antwort: Nein. Denn, so die Richter, die fraglichen Bücher habe Google nach entsprechender Aufforderung der WBG umgehend aus dem Netz genommen. Und: Googles Vorgehen, immer nur kurze Ausschnitte („Snippets“) zu zeigen, deute ebenfalls darauf hin, dass das Urheberrecht gewahrt bleibe. Ein Zusammenpuzzeln eines Werkes bis zur Vollständigkeit sei nicht möglich. Gleichzeitig, so deutete das Gericht an, sei man aber mit der Opt-Out Funktion grundsätzlich „nicht glücklich“.

Das Gericht gab dem Kläger zehn Minuten Zeit, man beriet sich. Dann war klar, die WBG zieht den Antrag zum Eilverfahren zurück. Man trägt die Kosten des Verfahrens, bei einem Streitwert von 100.000 EUR rund 2.500 EUR. Triumphgrinsen bei Google.

Alexander Skipis, Hauptgeschäftsführer des Börsenvereins, spricht (3) nun davon, Googles Vorgehen weiterhin aufmerksam zu beobachten: „Insgesamt aber ist die Situation unbefriedigend, weil jederzeit eine weitere Urheberrechtsverletzung drohen kann. Dadurch wird dem Missbrauch geistigen Eigentums Tür und Tor geöffnet.“

Google hat mit verschiedenen Universitätsbibliotheken in den USA Kooperationsverträge über die Digitalisierung von Büchern aus deren Bestand abgeschlossen. Nicht nur WBG und Börsenverein vertreten die Auffassung, dass Google von den Universitätsbibliotheken keine Lizenzen zur Vervielfältigung und Online-Nutzung erwerben können, weil diese keinerlei Verwertungsrechte an ihren Buchbeständen haben.

In den USA und Frankreich sind ähnliche Prozesse anhängig. Das Hamburger Landgericht wollte sich mit dieser Frage nicht befassen, da sie nach seiner Ansicht nur in den USA geklärt werden kann.

Bei Google versteht man die Aufregung ohnehin nicht ganz. 75 Prozent aller urheberrechtlich geschützten Bücher seien nicht mehr lieferbar. Die wolle man auffindbar machen. Eine Reihe deutscher und europäischer Verlagen sieht das ähnlich und in Googles Buchsuche ein sinnvolles Marketinginstrument. So kooperieren heute bereits mehr als 10.000 Verlage mit Google.
Links

(1) http://www.wbg-darmstadt.de/
(2) http://books.google.de/
(3)

Telepolis Artikel-URL: http://www.telepolis.de/r4/artikel/23/23002/1.html