Kategorien
Elektronische Kultur Interviews Künstliche Intelligenz Mixed

„Ich verstehe nicht, was noch entschleunigt werden soll“

Hans-Christian Dany über den Stillstand des Kapitalismus und die Möglichkeiten eines Aufbruchs in eine unbekannte Zukunft

Das Ende des Kapitalismus wird regelmäßig vorhergesagt oder herbei geschworen. Der Autor und Künstler Hans-Christian Dany hat neue Anzeichen für das Hinauszögern des Endes der Ordnung entdeckt und plädiert in seinem neuen Buch „Schneller als die Sonne. Aus dem rasenden Stillstand in eine unbekannte Zukunft“ für einen Austritt aus der informationstechnischen Kontrollgesellschaft, in der jeder Beobachter aller anderen und ein von allen anderen Beobachteter ist.

Erschienen in der Telepolis

Dany lebt in Hamburg, sucht die praktische Umsetzung seiner Literatur und will gleichwohl geordnet kommunizieren. Wir verabreden uns zum Gespräch per Postkarten. Es ist ein Versuch, an das letzte Buch von ihm „Morgen werde ich Idiot“ („In einer Utopie der Idioten sehe ich die größte Gefährdung für die kapitalistische Maschinerie“) anzuschließen. Achtsamer Konsum, Entschleunigung, Big Data – im Interview erläutert Dany, warum diese Bewegungen und Phänomene nur Reparaturmaßnahmen sind und warum wir uns von der Annahme verabschieden sollten, zu wissen, wie eine bessere Welt aussieht.

Kategorien
Künstliche Intelligenz

Google wird zur Künstlichen Intelligenz

DeepMind-KI lernt aus Erfahrung

Ende Januar wurde die neueste Akquirierung von Google bekannt. Der Konzern kaufte für wohl 400 oder auch 500 Millionen US-Dollar ein Startup mit dem ambitionierten Namen DeepMind. Dort will man, so wirbt die Website, Maschinenlernen und Neurowissenschaft kombinieren, um leistungsstarke und vor allem universale Lernalgorithmen zu schaffen. Man nennt es Künstliche Intelligenz (KI).

Kategorien
Künstliche Intelligenz

Wo bleibt das Hirn?

Das europäische Human Brain Project steht vor der Spaltung

Das Human Brain Project (HBP) der EU ist mit dem Ziel initiiert worden, das vorhandene Wissen über das Hirn zu sammeln und in einem zweiten Schritt das menschliche Denkorgan nachzubauen. Dafür sollen über eine Milliarden Euro fließen. Sowohl am Anspruch wie an der Summe wird seit bekannt werden des Projekts Anstoß genommen. Zu utopisch, zu teuer.

Kategorien
Cognitive Enhancement Elektronische Kultur

Der prothetische Körper

Noch funktioniert die aktive Prothesentechnik über Muskelströme, an den Schnittstellen zum Nervensystem wird geforscht

Erschienen in der Telepolis v. 10.10.2013
Von Jörg Auf dem Hövel

Der Fortschritt der Prothesen-Technik ist spätestens seit den sportlichen Erfolgen von Kurzstreckenläufer Oscar Pistorius deutlich. Beim Rennen verbrauchen seine Unterbeinprothesen weniger Energie als natürliche Beine. Über kurz oder lang könnten solche passiven, mehr noch aber aktive Prothesen vielen menschlichen Extremitäten und Organen überlegen sein. Wie weit ist die Technik schon jetzt? Und welche kulturellen Körperbilder entstehen?

Kategorien
Elektronische Kultur Übermensch

Google will das Leben verlängern

Der Konzern gründet ein Biotech-Unternehmen, um das Altern zu verhindern

Erschienen in der Telepolis v. 09.10.2013
Von Jörg Auf dem Hövel

Es hört sich ein wenig an wie die Zusammenfassung eines klassischen Dramas: Die Geschichte vom mächtigen Herrscher, der es schafft, alle Kräfte um sich herum zu besiegen – bis als letzter Feind nur die eigene Sterblichkeit bleibt. Der Herrscher ist in diesem Fall Google. In nur 15 Jahren hat es das amerikanische Unternehmen auf den zweiten Platz der wertvollsten Marken der Welt geschafft, wie das US-Beratungsunternehmen Interbrand für seine vergangen Woche veröffentlichten Rangliste errechnet hat. Auf Platz 1 vor Google liegt laut der aktuellesten Analyse nun nur noch Apple.

Google-Chef und -Mitgründer Sergey Brin hat nun nicht weniger als die Evolution des menschlichen Daseins als sein neuestes Business-Projekt ausgeguckt. Google investiert in die in die Erforschung von Möglichkeiten, das Sterben auf später zu verschieben. Und zwar auf viel später.

Kategorien
Künstliche Intelligenz

Autonom im Kampfeinsatz

Eine Militärshow zeigt die Fähigkeiten von Robotern

Erschienen in der Telepolis v. 19.10.2013
Von Jörg Auf dem Hövel

Die Computerworld hat Videoaufnahmen von einer Militärshow für autonome Roboter veröffentlicht. Verschiedene Firmen durften die Fähigkeiten ihrer Schlachtvehikel vorführen. Der CaME-Landrover der Rüstungsfirma Northrop Grumman läuft 24 Stunden lang und ist in der Lage, Ziele per Teleskop oder Thermo-Kamera zu erfassen und auf sie zu schießen.

Autonom agiert dieser Roboter nicht, er wird über ein Tablet gesteuert. Überhaupt sieht man die Kampfmaschinen oft als Begleitung für Soldaten, um Gepäck und Ausrüstung zu tragen.

Ein US-Militär wird mit den Worten zitiert: „Die Technologie reift heran, wir sind zufrieden.“ Man hoffe darauf, dass die Waffen in den nächsten fünf Jahren für den Kampfeinsatz taugen.

Kategorien
Elektronische Kultur Interviews

„In einer Utopie der Idioten sehe ich die größte Gefährdung für die kapitalistische Maschinerie“

Hans-Christian Dany über die Wurzeln der sich selbst kontrollierenden Gesellschaft in der Kybernetik

Erschienen in der Telepolis v. 01.09.2013
Das Gespräch führte Jörg Auf dem Hövel

Anfang der 50er Jahre des vergangenen Jahrhunderts tauchte ein Forschungsansatz auf, der das wissenschaftliche Denken nachhaltig verändern sollte: die Kybernetik. Angelehnt an den griechischen Begriff des „Steuermann“ beschäftigte sich die neue Disziplin mit der Regelung von Maschinen, Organismen und Organisationen. Die Grundannahme: Alles ist ein System und funktioniert nach den Prinzipien von Rückkopplung, Selbstregulation und Gleichgewichtserhaltung. Das oft genannte Beispiel eines kybernetischen Systems ist der Thermostat. Dieser vergleicht den Istwert der Raumtemperatur mit dem Sollwert, der als gewünschte Temperatur eingestellt wurde. Der Temperaturunterschied führt den Thermostaten in einen Regelkreis, bei dem Ist- und Sollwert ständig angeglichen werden. Ahnherr der Disziplin ist Norbert Wiener, ein US-amerikanischer Mathematiker, der über die Analyse von automatischer Zielerfassung von Militärflugzeugen zum Begriff der Kybernetik kam. Die Kybernetik befruchtete zahlreiche andere Domänen, ihre Ideen und Begriffe flossen in Management- und Therapieschulen, Erkenntnistheorien und die soziologische Systemtheorie ein.

Der Hamburger Autor Hans-Christian Dany hat die Geschichte der Kybernetik in seinem Buch „Morgen werde ich Idiot. Kybernetik und Kontrollgesellschaft“ [1] neu erforscht und sieht eine starke Verbindung zwischen dem Modell selbstregulierender Systeme und der heutigen, auf ständige Selbstoptimierung ausgerichteten Gesellschaft.

Kategorien
Elektronische Kultur Mixed

Eine Liste zu Artikeln über elektronische Kultur

Technik und elektronische Kultur

Zwischen 1996 und heute veröffentlichte Artikel – eine Auswahl

Die aktuellsten Beiträge sind oft in der telepolis zu finden.

Enhancement mit Statistik
Die Debatte um die Quantified Self-Bewegung und die Selbststeuerung
Telepolis v. 07.08.2012

Die Datenflut erschafft Zombies
In den Zeiten des Data-Minings braucht es keine Psychologie
Telepolis v. 11.05.2011

Wenn Technik Lösungen, aber keine Antworten bietet
Interview mit dem Philosophen Oliver Müller
Telepolis v. 20.08.2010

Neuroimplantate, pharmakologisches Menschendesign und Elitenzucht?
Teil 1

Telepolis v. 11.04.2009

Neuroimplantate, pharmakologisches Menschendesign und Elitenzucht?
Teil 2

Telepolis v. 12.04.2009

Ärztefortbildung auf Pharma-Portalen
Spiegel Online v. 15.10.2008

Interview über das Gedankenlesen
Gedankenlesen.info v. 29.11.2007

Kupfer am Limit: IPTV im Test
telepolis v. 18.12.2006

Wissenschafts-Glasfasernetz bricht alle Rekorde
Computerwoche v. 01.09.2006

Die IT-Infrastruktur des Reservierungsdienstleisters Sabre (html o. pdf)
Computer Zeitung v. 09.10.2006

Interview mit Stefan Keuchel, Google Deutschland
telepolis v. 18.09.2006

Tröpfchenweises Wissen
telepolis v. 06.08.2006

Der Prozess um die Google Buchsuche
telepolis v. 30.06.2006

Was will Web 2.0?
telepolis v. 07.06.2006

Für wen Linux gut ist (html o. pdf)
Frankfurter Allgemeine Zeitung v. 28.02.2006

Spam: Die digitale Plage
Frankfurter Allgemeine Zeitung v. 15.07.2005

SUV-Köpfe in Kampflaune
telepolis v. 15.09.2005

Der spielerische Krieg
telepolis v. 03.09.2005

Architektur und Sicherheit im Zeitalter des Terrorismus
telepolis 20. 08.2005

IT-Architektur für Riesen (III): Google
Computerwoche, 20/2005

IT-Architektur für Riesen (II): Amazon
Computerwoche, 19/2005

IT-Architektur für Riesen (I): Ebay
Computerwoche, 18/2005

Autoren im Datennirvana
DU, Nr. 752, 11/2004

Funkende Etiketten
Frankfurter Allgemeine Zeitung v. 19.10.04

Sinn und Spaß beim Roboterfußball
telepolis v. 23.06.04

RFID-Chips in der Warenwelt
Morgenwelt v. 14.06.04

Container unter GPS-Kontrolle
Frankfurter Allgemeine Zeitung v. 16.09.03

Online-Journalismus im Tal der Tränen
telepolis v. 03.06.03

Webseiten behindertengerecht bauen
telepolis v. 30.01.03

Der gehemmte Cyber-Sozialismus
Frankfurter Allgemeine Zeitung v. 28.01.03

Deep Fritz vs. Vladimir Kramnik
Frankfurter Allgemeine Zeitung v. 08.10.02

Interview mit Rolf Pfeifer, AI-Lab, Zürich
Künstliche Intelligenz, Heft 1/03

Cyber Sozialismus light
Spiegel Online v. 28.05.02

„Als Intelligenz würde ich das noch nicht bezeichnen“
Künstliche Intelligenz, Heft 3/02

Tatsachen über Maschinen, Denkbarkeiten für Menschen
telepolis v. 07.05.02

Interface 5 ohne Publikum
telepolis v. 17.10.00

Open Source und Free Software
Frankfurter Allgemeine Zeitung v. 21.03.00

Denkmal des Informationszeitalters
Frankfurter Allgemeine Zeitung v. 18.05.99

Nur ein wenig Verschlüsseln ist schwierig
Frankfurter Allgemeine Zeitung v. 17.02.98

Trust Center sollen die Kommunikation sichern
Frankfurter Allgemeine Zeitung v. 10.12.96

Das globale Ohr existiert
Internet World 5/00

Big-Brother Award in Österreich vergeben
Internet World 1/00

Enfopol: Schleichweg zum Euro-Lauschangriff
Internet World 8/99

Ahnungslos den Maulwurf gekauft
Internet World 1/99

NSA und BND schwer auf Draht
Internet World 6/98

Nutzt das organisierte Verbrechen die Verschlüsselung von Nachrichten?
Internet World 3/98

Mit Scientology im Cyberspace
c´t 3/96

Key-Hinterlegung soll den Staat vor Krypto-Mißbrauch schützen
Computer Zeitung v. 2.7.98

Der Computer im Portemonnaie: Smart Cards
Deutsches Allgemeines Sonntagsblatt v. 28.08.98

Der gehorsame Computer
Deutsches Allgemeines Sonntagsblatt v. 20.03.98

Vertrauen ist gut, verstecken besser
Deutsches Allgemeines Sonntagsblatt v. 06.02.98

Den Hackern das Leben erschweren
Business Online 3/98

Aspekte der Sicherheit von E-Mail
Business Online 10/97

Angst vor dem Großen Bruder
Business Online 6/98

Steuern für das Internet?
Business Online 6/98

Music on Demand im Internet
Business Online 7/98

Selbstkontrolle statt Zensur
Internet Online 12/96

 

 

 

 

 

 

 

 

Kategorien
Elektronische Kultur

Die IT-Architektur von Google

Computerwoche, 20/2005
Aktualisiert am 17.6.2011

Ergänzt am 05.07.2012

Google setzt auf Billighardware

Jörg Auf dem Hövel

Die IT-Architektur der größten Suchmaschine

Zu jedem Internet-Startup-Unternehmen gehört eine Legende. Die von Google spielt Mitte der 90er Jahre in den Lagerräumen der Stanford University rund 60 Kilometer südlich von San Francisco. Hier tauchen die beiden befreundeten Studenten Larry Page und Sergey Brin immer wieder auf, um zu kontrollieren, welches Universitätspersonal neue Rechner erhält. Die veralteten PCs und Server der Mitarbeiter sammeln sie und binden sie in ihr eigenes Netzwerk ein. In diesem wollen sie die Antwort auf eine der großen Fragen des Computerzeitalters finden: Wie ziehe ich aus einer riesigen Menge an Daten die für mich relevanten Informationen heraus?

Heute ist die Antwort klar: mit Google. Die von Page und Brin entwickelte Suchmaschine ist wegen ihrer Schnelligkeit, der aufgeräumten Benutzeroberfläche und der Qualität der Suchergebnisse das weitaus beliebteste Tool zum Aufspüren von Informationen im Internet – im Durchschnitt erhält Google mindestens 1000-mal in der Sekunde eine Anfrage. Hinter der schlichten Oberfläche in über 88 Sprachen und mehr als 80 Domänen verbirgt sich eine Armada von Billigrechnern, die grundsätzlich noch immer nach dem Prinzip der ersten Stunden von Google aufgebaut sind.

Geografische Lastverteilung

Surft ein User zu www.google. com, sorgt zunächst ein DNS-basierender Lastenverteiler unter www.google.akadns.net dafür, dass der Anwender zu Google-Rechnern in seiner geografischen Nähe geleitet wird. Die Nutzung des DNS (Domain Name System) als Lastverteiler baut auf dessen TTL-Wert („Time to Live“) auf. Das DNS legt für jede Domain fest, wie lange sie im Cache eines Servers verleiben darf; im Normalfall sind das mehrere Tage. Ist die TTL abgelaufen, muss der Name-Server des Anwenders die IP-Adresse über das DNS anfordern. Google und sein Partner Akamai haben aber die TTL auf Sekunden eingestellt, so dass die Name-Server die IP-Adresse der Domain www.google.com nur kurz speichern dürfen, danach müssen sie eine neue IP beim zuständigen Name-Server von Google (beziehungsweise Akamai) anfordern. Auch ein einfaches Ping auf www.google.de zeigt ständig wechselnde IP-Adressen.

Die Suchanfragen werden also an wechselnde physikalische Rechenzentren gerichtet

google logo

Dieses Vorgehen hat zwei Vorteile: Zum einen verringert sich die Reisezeit der Datenpakte, was zu kürzeren Antwortzeiten führt, zum anderen laufen nicht alle Suchanfragen in den USA auf. Das Unternehmen nennt seine globalen Rechnerstandorte „Cluster“, hält aber geheim, wo genau die Rechnerfarmen stehen. Während andere IT-Giganten sich über ihre Infrastruktur in Schweigen hüllen, ist Google zwar auskunftsfreudiger, steht aber zugleich in dem Verdacht, die Mitbewerber über das wahre Ausmaß des ausgedehnten Rechnernetzes in die Irre zu führen. Zurzeit wird die Anzahl der Rechenzentren auf mindestens 13 geschätzt, wovon eines in Santa Clara, Kalifornien, und ein weiteres in Herndon, Virginia, steht. Europäische Surfer werden von Zentren in Zürich und Dublin bedient. Ein Datenpaket einer Anfrage an Google.de verlässt nie das „alte Europa“. Über die Frage, wie viele Server in den verschiedenen Rechenzentren stehen, wird seit Jahren spekuliert. Mal werden 60000, mal über 100 000 Server genannt. Nach eigener Auskunft indexiert Google über acht Milliarden Web-Seiten mit einer Größe von durchschnittlich 10 Kilobyte. Es müssen also 80 Terabyte Daten gespeichert werden.

Wichtiger als die genaue Anzahl der Maschinen und der indexierten Web-Seiten ist der subtile Aufbau dieser über viele Standorte verteilten Architektur. Die Beantwortung einer Suchanfrage an diese Grid-Datenbank läuft in zwei Phasen ab. In der ersten Phase landet die Anfrage bei Googles Index-Servern. Gibt der User beispielsweise computerwoche bei Google ein, so schaut der Index-Server in seinem Register nach, welche von ihm indexierten Seiten dieses Wort beinhalten. Bei einer Anfrage nach computerwoche online verknüpft Google die beiden Begriffe per Boolschen „UND“-Operator. Sodann wird nach Relevanz der Ergebnisse eine Rangfolge erstellt, die später darüber entscheidet, an welcher Stelle die Seite in der Ergebnisliste erscheint. Schon diese Erstellung der Liste läuft nicht nur auf einem einzelnen Rechner ab, sondern verteilt sich über mehrere Maschinen.

Weniger als eine halbe Sekunde

In einem zweiten Schritt kommen die Document-Server zum Tragen. Diese Rechner nehmen die in Schritt eins generierte Liste und extrahieren den aktuellen Titel und die URL der gefundenen Web-Seiten. Sie greifen dazu auf einen Schnappschuss des Webs zu, den die Suchroboter von Google immer wieder aktualisieren. Dieser Google-Cache versucht möglichst aktuell zu bleiben; die Robots durchkämmen das Internet immer wieder neu. Parallel zu den beiden Phasen initiiert Google mindestens zwei andere Prozesse. So wird die Sucheingabe zu einer Rechtschreibkorrektur-Software und zu einem Werbeanzeigen-Server weitergeleitet, der zu den Suchbegriffen passende Inserate generiert, die später am rechten Rand der Ergebnisseite erscheinen.

Sind alle Phasen abgeschlossen, erstellt der Google-Web-Server“ (GWS) eine HTML-Seite und sendet diese an den User zurück. Der Web-Server läuft, genau wie alle anderen Anwendungen, auf einer abgespeckten Linux-Version von Red Hat und ist – trotz einer gewissen Ähnlichkeit mit dem Open-Source-Marktführer „Apache“ – eine Eigenentwicklung aus dem Hause Google. Der gesamte Prozess läuft blitzschnell ab, eine Google-Suchanfrage dauert üblicherweise weniger als eine halbe Sekunde.

 

Google Racks
Moderne Google-Racks

 

An welcher Stelle in der Ergebnisliste eine Seite erscheint, hängt vom Page-Rank-Algorithmus ab. In diesen geht maßgeblich ein, wie oft und vor allem von welchen anderen Web-Seiten aus eine Web-Seite verlinkt ist. Wenn Google etwas über die Qualität der Seite weiß, die einen Link enthält, schließt es daraus auch auf die Qualität der verlinkten Seite. Anzahl und Qualität der fremdgesetzten Links bestimmen also den Rang bei Google.

Die damals an der Stanford University entworfene Strategie der Billighardware bestimmt noch heute Googles IT-Architektur. Sie baut weder auf Oracle-Datenbanken noch auf Sun-Servern auf, und auch die Blade-Technik bleibt außen vor. Google betreibt sein Geschäft auf preiswerten Servern, deren Platzbedarf ein oder zwei Höheneinheiten nicht überschreiten. Die 19-Zoll-No-Name-„Pizzaschachteln“ kauft das Unternehmen oft von der Firma Rackable – und manchmal auch auf dem Gebrauchtmarkt. In jedem dieser Server sitzen ein oder zwei normale x86-PC-Prozessoren und eine oder mehrere IDE-Festplatten. „Im Schnitt kostet ein Google-Server rund 1000 Dollar“, sagt Urs Hoelzle, Vizepräsident der technischen Abteilung bei Google.

Generationsübergreifend verrichten bei Google ältere 533-Megahertz-Intel-Celeron- genauso wie 2,4-Gigahertz-Pentium-Prozessoren ihren Dienst. Meist stehen zwischen 40 und 80 Server in einem Rack. Dort sind die Server über einen 100-Megabit-Ethernet-Switch verbunden, der ein oder zwei 2-Gigabit-Uplinks zu den anderen Servern hat. Ein Suchbefehl wird nicht nur von einem Rechner bearbeitet, sondern auf diversen Maschinen parallel abgearbeitet.

Der Absturz ist einkalkuliert

Die Performance des einzelnen Rechners ist damit weniger relevant als die schnelle Verbindung unter den Maschinen. Langsamere CPUs werden durch schnellere im Netzwerk ausgeglichen. Die hohe Ausfallwahrscheinlichkeit der preiswerten Hardwarekomponenten egalisiert Google durch eine konsequente Replikation aller Dienste. Fallen Festplatten oder gar ganze Racks aus, so übernimmt ein gespiegelter Server die Aufgaben.

Das intern programmierte „Google File System“ (GFS) rechnet stets mit einem solchen Absturz und ist so implementiert, dass es bei Problemen sofort auf eine andere Ressource zugreift. Dazu speichert es jedes Datenbit auf drei Rechnern, die immer in verschiedenen Racks sitzen müssen.

Ein Server arbeitet bei Google maximal drei Jahre lang, danach wandert er zum Elektro-Recyling. Ältere Rechner sind im Vergleich zu der nachrückenden Generation zu langsam: Sie würden die verteilten Rechenoperationen stark ausbremsen.

Teure Boards sind überflüssig

Auch in Zukunft will Google auf preisgünstige Hardware setzen. Multiprozessoren-Motherboards würden zwar mit einer besseren Performanz aufwarten, die Softwareparallelisierung läuft bei Google aber so zügig und einwandfrei, dass sich der hohe Preis für solche Motherboards nicht lohnen würde. Ein brandneuer Highend-Multiprozessor-Server würde dreimal so viel wie ein vergleichbares zusammengestelltes Rack kosten. Die wichtigste Suchmaschine der Welt wird also weiterhin mit Billighardware arbeiten.


Ergänzung am 05.07.2012

Google regelt mittlerweile den Verkehr zwischen seinen Datencentern auf besondere Weise. Die Router und Switches sind über ein Software-defined Network (SDN (Wikipedia)) verbunden, das mit OpenFlow-Protokoll (Open Flow (Wikipedia)) gesteuert wird. Das macht Google unabhängig von der Firmware, die auf den Routern und Switches läuft und erlaubt dem Konzern, den Datenfluss besser zu steuern und verschiedenen Prioritäten für verschiedene Dienste (Mails, Video, …) einzuräumen.

Kategorien
Elektronische Kultur Gesundheitssystem

Interview mit Stephan Schleim über das Gedankenlesen

www.gedankenlesen.info

Interview mit dem Autor Stephan Schleim über sein Buch „Gedankenlesen“

Frage: Herr Schleim, wer an Gedankenlesen denkt, denkt zunächst an den klassischen Lügendetektor. Mit welcher Zuverlässigkeit können die herkömmlichen Polygraphen jemanden beim Lügen ertappen?

Stephan Schleim: Schon beim „klassischen Lügendetektor“ gibt es große Unterschiede. Interessanter als die wissenschaftlichen Daten ist hier ein Blick in die Gerichtssäle: In den USA lässt kein Gericht – außer im Bundesstaat New Mexico – den Polygraphen als Beweismittel zu. Auch in Deutschland genießt er keinen guten Ruf. Urteile des Bundesgerichtshofs aus den 1950er und 1990er Jahren erklären ihn höchstrichterlich als unzulässig. Die Begründung hierzulande wie in den USA ist, das Verfahren sei nicht wissenschaftlich gesichert.

Bringt die moderne Technik mit ihren bildgebenden Verfahren da einen Fortschritt?

Die einfache Idee vieler ist: Lügen seien gedankliche Prozesse; und Gedanken fänden im Gehirn statt; also müsse man nur das Gehirn untersuchen, et voilà, schon könne man zwischen Wahrheit und Lüge unterscheiden. Wer einmal selbst Hirnforschung betrieben hat, der weiß aber: In Sachen Hirn ist nichts so einfach. Dennoch ist es manchen Forschern gelungen, unter experimentellen Bedingungen auf bis zu 90 Prozent Zuverlässigkeit zu kommen. Dabei bleiben noch viele Fragen offen – es ist aber ein beachtlicher erster Erfolg.

Also ist die Unterscheidung zwischen „Lüge oder Wahrheit“ bald gerichtsverwertbar den Maschinen überlassen?

Nein, keineswegs, das ist noch unentschieden. Wenn man einem Studenten eine Spielkarte gibt und ihm sagt, er solle jetzt immer „nein“ antworten, wenn man ihn danach fragt, und ihn zudem dafür bezahlt, was heißt das? In Wirklichkeit gibt es viele Arten von Lüge, die viel komplexer sind. Wie ich im Buch argumentiere, könnte sich ein echter Lügendetektor im Sinne einer Gedankenlese-Maschine als verfassungswidrig herausstellen. Ob die Maschinen jemals im Gerichtsaal landen, das ist noch nicht abzusehen.
Stephan Schleim
Aber die Neuro-Wissenschaft erhofft sich viel von den bildgebenden Verfahren.

Ja, das ist korrekt. Nachdem die ausgerufene „Dekade des Gehirns“ (1990 bis 2000) vorüber ist und sich nun auch das „Jahrzehnt des menschlichen Gehirns“ (2000 bis 2010) dem Ende nähert, zeichnet sich jedoch ab, dass manche Hoffnungen überzogen sind. Die bildgebenden Verfahren können Erstaunliches sichtbar machen, dennoch bleibt es wichtig, genau hinzuschauen, was einem die Daten sagen. Wir messen Bildern aufgrund unserer Alltagserfahrung oft eine erhebliche Überzeugungskraft bei – aber was bedeuten Hirnbilder wirklich? Dieser Frage wurde bisher in der Öffentlichkeit kaum Aufmerksamkeit geschenkt.

Ist es nicht bis jetzt so, dass die konkreten Inhalte des Denkens nur dann ausgelesen werden können, wenn die Vorgaben durch den Versuchsaufbau sehr eng sind? Der Proband darf also an einen Kreis oder ein Quadrat denken, nicht aber an seine Mutter?

Das kommt einem bestimmten Experiment sehr nahe, bei dem ermittelt werden konnte, ob jemand gerade an ein Gesicht denkt oder an einen Ort. Das wäre nur in einem sehr reduzierten Sinne „Gedankenlesen“. Allerdings gibt es auch schon erfolgreiche Versuche, den gedanklichen Inhalten weitaus näher zu kommen. Beispielsweise wurde es mit zehn verschiedenen Objektkategorien probiert; oder auch damit, anhand der Muster von Versuchsperson A die Erlebnisse von Versuchsperson B zu bestimmen.

Der ultimative Test einer universellen Gedankenlesemaschine wäre es aber, ein Experiment frei von jeglichen Beschränkungen durchzuführen, da gebe ich Ihnen recht. Ob es jemals so weit sein wird und wenn ja, wann, darüber lässt sich heute nur spekulieren. Es lohnt sich aber, die aktuellen Fortschritte genauer anzuschauen, um eine realistische Einschätzung darüber zu gewinnen, was schon möglich ist und was noch nicht.

Und was die Gesellschaft will.

Ja, natürlich, und dafür muss man die Datenlage richtig einschätzen können. Relativ unabhängig von dem, „was die Gesellschaft will“, dürfen die Wissenschaftler erst einmal ihrer Forschung nachgehen. Aus diesen Ergebnissen können dann technische Anwendungen entstehen, die wiederum auf die Gesellschaft rückwirken. Das wird am Beispiel der Lügendetektion mit dem Hirnscanner deutlich, wo zwei Firmen in den USA seit Kurzem mit Hirnforschern kooperieren, um diese Anwendung marktreif zu machen. Eine von beiden Firmen, „No Lie MRI“, will jetzt auch in den europäischen Markt einsteigen und plant dafür gerade eine Vorführung in der Schweiz.

Gesetzt den Fall, das Auslesen von Gedanken verfeinert sich immer mehr, lässt sich schon absehen, ob dies Auswirkungen auf das Selbstbild des Menschen haben wird? Ich kann mir vorstellen, einige Philosophen sichern schon das Terrain.

[lacht] Ja, tatsächlich versuche ich selbst, da einen Fuß in die Tür zu bekommen. Ein schlechtes Beispiel für einen viel beschworenen Einfluss auf das Selbstbild, manchmal wurde gar von einer „Kränkung des Subjekts“ geredet, stellt meines Erachtens die Willensfreiheitsdebatte dar. Da wurden manchmal Behauptungen aufgestellt, ohne überhaupt die Bedeutung solcher Wörter wie „Wille“ oder „Freiheit“ zu reflektieren. Ich frage mich, hat irgendein Mensch in Deutschland durch diese Diskussion aufgehört daran zu glauben, dass er – zumindest manchmal – aus freien Stücken handelt?
Ich wünsche mir, dass wir eine kritische Neurophilosophie bekommen, damit sich so eine verfehlte Diskussion nicht wiederholt; und ich wünsche mir, dass sich auch mehr Laien trauen, sich mit der Hirnforschung philosophisch auseinanderzusetzen: Einerseits gibt es dort nämlich wirklich Interessantes über den Menschen zu lernen, andererseits würde es dazu beitragen, dass sich die Diskussion nicht im abstrakten Raum des akademischen Elfenbeinturms verliert.

Existieren eigentlich Untersuchungen darüber, ob Liebe und Empathie uns tatsächlich die Gedanken des anderen fühlen lassen können – oder ist das ein gänzlich anderes Feld?

Was Sie ansprechen, ist sogar ein traditionelleres Forschungsfeld als das „Gedankenlesen“ in dem Sinne, wie ich es verwende. Von Natur aus können wir nämlich bestimmte Fähigkeiten entwickeln, die Gedanken eines anderen besser nachzuempfinden oder auch zu manipulieren. Haben Sie schon einmal Poker gespielt? Dann wissen Sie, wie schwer es ist. Wären wir aber perfekte Gedankenleser, dann würden solche Spiele keinen Sinn machen und auch unser sozialer Alltag wäre wesentlich härter. Das selbsterklärte Ziel der Forscher ist es nun aber gerade, es mit Hightech besser zu machen, als wir es von Natur aus können. Es bleibt spannend zu verfolgen, wie dieses Wettrennen ausgehen wird.

Das Interview führte Jörg Auf dem Hövel