Kategorien
Gesundheitssystem

Arzneimittel – der kontinuierliche Skandal, Teil 2

telepolis, 29.12.2012

(Teil 1) (Teil 3)

Die Zulassungsbehörden und medizinischen Fachmagazine werden ihrer Aufgabe kaum noch gerecht

Jörg Auf dem Hövel

Jedes in Europa verschriebene Medikament ist von einer nationalen oder der europäischen Arzneimittelbehörde (EMA) genehmigt worden. Die Behörden entscheiden auf Grundlage von Studiendaten darüber, ob das Medikament wirksam und sicher ist, später beobachten die Mitarbeiter, ob die Substanz im paneuropäischen Großeinsatz bei manchen Bürgern doch zu Problemen führt und entfernen solche Medikamente wieder vom Markt. Das Zulassungssystem wird ergänzt durch die Arbeit der wissenschaftlichen Fachmagazine, in denen die Studiendaten vorgestellt und diskutiert werden. Das klingt reibungsloser, als es in der Praxis ist.

Denn (1) zum einen werden die Zulassungsentscheidungen auf Grundlage schlechter Datenlage gefällt – nur rund die Hälfte aller Studien landen auf den Schreibtischen der Behörden.

Zum anderen (2) ist deren Aufklärungswillen gegenüber den Ärzten und der Öffentlichkeit kaum ausgeprägt – der Aufbau einer öffentlich zugänglichen Datenbank wurde lange verschleppt.

Die (3) Fachmagazine wiederum stehen unter wirtschaftlichem Druck und sehen sich den variantenreichen Marketingbemühungen der Arzneimittelproduzenten ausgesetzt.

(1) Unklare und selektiv veröffentlichte Daten

Experten weisen seit mindestens einem Jahrzehnt darauf hin, dass viele klinische Studien nicht veröffentlicht werden, wenn die Ergebnisse dem Auftraggeber nicht passen. 2010 veröffentlichte eine Forschergruppe eine umfangreiche Übersichtsarbeit zu dem Problem und stellte fest, dass rund die Hälfte aller klinischen Studien, die begonnen und fertig gestellt wurden, nie in einem Fachmagazin oder an einem anderen Ort publiziert worden waren.

Zugleich zeigen andere Übersichtsarbeiten die Dominanz von positiven Ergebnissen in den veröffentlichten Beiträgen. Mit anderen Worten: Negativ verlaufenden Studien, die keine signifikante Wirkung der Arznei zeigen konnten, werden nur halb so oft veröffentlicht wie solche mit positiven Ergebnissen. Die Konsequenz ist genau so erschreckend wie weithin unbeachtet: Täglich werden Arzneimittel auf Grundlage einer einseitiger Studienlage verschrieben. Es ist bei einer Vielzahl von Medikamenten einerseits unklar, ob sie tatsächlich so wirken wie beworben, und andererseits unklar, ob ein Alternativmedikament nicht genauso gut oder schlecht hilft.

Darunter leidet auch das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG), das in Deutschland den Nutzen von Behandlungen bewertet. Die Mitarbeiter sehen sich durch die selektive Veröffentlichung und das Verhalten der Hersteller in ihrer Arbeit „massiv behindert“.

Liegt ein Medikament beim IQWiG zur Prüfung vor, fragt das Institut beim Hersteller bewusst auch nach unpublizierten Studien nach. Man bekam in den vergangenen Jahren bei 41 Prozent (15 von 37) der Anfragen keine oder nur unvollständige Unterlagen. Diese Art von Publikations-Verzerrungen sind mittlerweile gut bewiesen und begleiten gleichwohl weiterhin die ärztliche Verschreibungspraxis. Eine vom IQWiG im Rahmen einer Analyse 2010 veröffentlichte Liste gibt eine Ahnung von der Größenordnung.

(2) Schleppende Aufklärung

Um diesen Wissensverzerrungen entgegen zu wirken, sind in den letzten Jahren gesetzliche Regelungen in Kraft getreten, die den Zugang der Öffentlichkeit auch zu ungünstigen Forschungsergebnissen sicherstellen sollen. In Deutschland ist ein Studienregister in Freiburg eingerichtet worden. Das Problem: In diesem werden nur die sehr genauen Angaben zu den Rahmenbedingungen der Studien, nicht deren Ergebnisse veröffentlicht. Die Freiwilligkeit soll trotzdem greifen, weil die großen Fachmagazine Studien nur noch publizieren, wenn sie zu Beginn registriert worden sind.

Besser machten es die USA, deren FDA seit 2007 alle Hersteller verpflichtet, die auf den US-Markt wollen, gleich zu Beginn einer Studie dieser unter clinicaltrials.gov einzutragen – eine Art Geburtsurkunde im Netz. Seither kann zumindest nachgeprüft werden, welche Studien angeschoben wurden.

Allerdings müssen deren Ergebnisse nur als Zusammenfassung eingepflegt werden. Es bleibt unklar, wie genau die Studien verlaufen sind, ausführliche oder gar komplette Datensätze sind hier nicht zu finden. Dabei zeigt die in Teil 1 beschriebene Studienpraxis, dass nur die komplette Einsicht in die Protokolle Ungenauigkeiten und Fälschungen verhindern können.

Nach langen Jahren der Diskussion richtete die EMA 2004 ein elektronisches Register für alle von europäischen Pharma-Unternehmen durchgeführten Studien ein. Der Name: EudraCT. Es enthält heute die Datensätze von über 30.000 Studien, war aber lange nur Expertenkreisen zugänglich. Erst nach Protesten und Medienberichten wurde eine öffentliche Website (EudraPharm) freigeschaltet, die eine Teilmenge der Studien zeigt. In einem Brief an das British Medical Journal mit dem Titel „Still waiting for functional EU Clinical Trials Register“ bemängelte Beate Wieseler vom IQWIG fehlende Suchfunktionen in der Website.

In Deutschland ist seit der letzten Gesundheitsreform das Arzneimittelgesetz um einen Passus (§42b AMG) ergänzt worden, der zur Veröffentlichung aller Ergebnisse „konfirmatorischer klinischer Prüfungen“ binnen sechs Monaten nach der Zulassung eines neuen Medikaments unter PharmNet-Bund.de verpflichtet. Das klingt gut, ist aber ebenfalls unzureichend: Denn zum einen müssen keine älteren Studiendaten eingepflegt werden. Gerade diese wären aber notwendig, um einen Vergleich zu ermöglichen. Zum anderen müssen keine Studien übermittelt werden, die keine Zulassung erhalten haben. Dabei wären gerade diese von Interesse für die Forscherkollegen und Allgemeinheit.

Unglücklich ist zudem die Beschränkung auf „konfirmatorische“ Studien. Im Normallfall sind damit Studien der Phase III gemeint, Phase I und II sowie Pilot-Studien müssen also nicht gemeldet werden. Dabei wären gerade diese wichtig, um unnötige Doppelprüfungen von Arzneimittelkandidaten zu vermeiden. Aber für die Arzneimittelproduzenten ist die Zurückhaltung von Daten nicht nur ein Versuch, negative Ergebnisse zu verschleiern, sondern eine Strategie, den Mitbewerbern so wenig Wissen wie möglich zu überlassen.

Es ist nicht so, dass hier nur Patientengruppen und Medienvertreter den Zugang fordern. Auch Ärzte fordern seit längerem eine bessere Übersicht über die Studienlage, weil sie sich ein besseres Bild von Arzneimitteln machen wollen. Zuletzt hat der weltweite Verband der Bulletins und Fachzeitschriften (ISDB) gefordert, dass der Zugang zu Informationssystem und Datenbanken [für die Allgemeinheit geöffnet werden muss.

Insgesamt teilen sich die pharmazeutische Industrie und die Regulierungsbehörden das Wissen rund um die Wirkung von Arzneimittel und schließen die Öffentlichkeit, Patienten, aber auch die Ärzte in weiten Teilen aus.

Fragt man die Regulierer selbst nach den Gründen, warum Studiendaten geheim bleiben sollten, verweisen diese auf die Gefahr einer falschen Berichterstattung durch die Medien; diese könnten Daten missinterpretieren.

Dies ist sicher richtig, richtig ist aber auch, dass beispielsweise eine frühzeitige Einsicht in die Dokumente rund um den Grippeimpfstoff Tamiflu dessen Risiken und Nebenwirkungen offen gelegt und enorme Kosten gespart hätte. Aber der Hersteller Roche ist bis heute nicht bereit zentrale Daten zu der Substanz bereit zu stellen.

Nur ein Nebenschauplatz sind da die immer wieder bekannt werdenden Verquickungen zwischen EMA und Industrie. Zuletzt verließ der langjährige Leiter der Agentur, Thomas Lönngren, im Dezember 2010 seinen Posten, um im Januar 2011 seine Tätigkeit bei der NDA Group aufzunehmen, einer Beratungsfirma für die Pharmaindustrie. Dieser Austausch zwischen öffentlicher Verwaltung und Wirtschaft ist kein auf die pharmazeutische Industrie beschränktes Phänomen, stößt aber hier aufgrund der Aufsichtsfunktion besonders auf.

Schneller Durchlauf

Im Normalfall ist die Arzneizulassung ein mehrjähriger Prozess. In besonderen Fällen genehmigen die Behörden in Europa und den USA eine Substanz auch schneller. Diese beschleunigten Beurteilungsverfahren werden dann angewendet, wenn eine Substanz verspricht besonders gut zu wirken oder erheblich weniger Nebenwirkungen zu haben.

So sinnvoll diese schnelle Zulassung in einigen Fällen auch sein mag, sie hat dazu geführt, dass es unsichere oder unwirksame Medikamente auf dem Markt schaffen. Durch Verschleppungstaktiken seitens der Hersteller fehlt für einige Medikamente sogar der vollständige Nachweis ihrer Wirksamkeit.

So wurde die Zulassung vom Wirkstoff Midodrin, der gegen Kreislaufstörungen helfen soll, von der FDA im September 2010 zurück gezogen, weil der Hersteller Shire nicht alle Studiendaten zur Verfügung stellen konnte. Später wurde Medikament wieder zugelassen, weil Shire das Nachreichen der Unterlagen zusicherte – was bis heute, Ende 2012, nicht geschehen ist. In Europa ist das Mittel trotz Bedenken weiter auf dem Markt. Eine ähnlich unklare Lage herrscht bei dem Wirkstoff Gefitinib, der Tumorwachstum hemmen soll.

Alltagstauglich

Nach der Zulassung eines Medikaments beginnt der eigentliche Großversuch an der Menschheit. Die EMA beobachtet die Risiken und Nebenwirkungen in der alltäglichen Anwendung, Ärzte und Gesundheitsbehörden melden etwaige Vorfälle mit Patienten. Diese verpflichtet den Hersteller im Bedarfsfall sodann eine neue, mögliche Nebenwirkung auf den Beipackzettel aufzunehmen. Aber auch hier hockt der Teufel im Detail, denn die Hersteller haben ein Mitspracherecht bei der Formulierung des neuen Textes. So kommt es immer wieder zu erheblichen Verzögerungen. So verhinderte 2008 ein Hersteller über Monate, dass eine Warnung der EMA zu einem Cholesterinsenker veröffentlicht wurde, weil er mit dem Wortlaut nicht einverstanden war.

Seine wahres Wirkungs- und Nebenwirkungsspektrum kann ein Medikament erst unter Routinebedingungen beweisen. Hier zeigt sich, wie der Wirkstoff bei Patienten wirkt, die beispielsweise aufgrund ihres Alters unter mehreren Krankheiten leiden und parallel andere Arzneimittel einnehmen. Der Beleg der Effektivität einer Substanz ist dadurch erheblich erschwert, denn Alltagseinflüsse drohen die Resultate zu verfälschen. Rund um dieses Feld hat sich erst in den letzten Jahren die Comparative Effectiveness Research etabliert. Diese Forschung ist von zentraler Bedeutung, weil die hochrelevantensystematischen Übersichtsarbeiten ebenfalls nur die Daten von klinischen Studien analysieren und deren immanente Probleme daher fortschreiben.

Wie sinnvoll solche vergleichenden Untersuchungen unter Alltagsbedingungen sein können, zeigt die ALLHAT-Studie. In ihr wurden zwischen 1994 und 2002 über 40.000 Patienten mit erhöhtem Blutdruck untersucht. Eine bis dahin etablierte Standardtherapie, nämlich die Behandlung mit Chlortalidon, wurde mit der Behandlung mit neueren Blutdruckmitteln (Doxazosin, Lisinopril und Amlodipin) verglichen. Ein zentrales Ergebnis der Studie war, dass bei Patienten im Alter von über 55 Jahren neuere Blutdruckmittel nicht besser wirken.

An dieser Stelle wird ein weiterer Fehler im System deutlich: Selbst wenn bereits eine oder mehrere Arzneimittel für eine bestimmte Krankheit auf dem Markt sind, bestehen die Zulassungsbehörden nicht darauf, dass ein neues Medikament besser wirken oder weniger Nebenwirkungen haben muss. Für die Markteinführung reicht aus, wenn die neue Substanz besser als ein Placebo wirkt. Diese Placebo-Studien sind nicht nur aufgrund der oben genannten Veröffentlichungsverzerrungen nur bedingt geeignet, den Nutzen zu beweisen. Nicht nur die ALLHAT-Studie zeigt, dass erst die vergleichende Analyse sinnvolle Bewertungen möglich macht.

(3) Der Fortschritt der pharmakologischen Wissenschaft lebt von der Veröffentlichung der Resultate und Meinungen

Die Organe dieser Wahrheitssuche sind die diversen medizinischen Fachblätter und Magazine. Je höher das Ansehen (impact-factor) eines Magazins, desto besser für den Autoren des Beitrags, desto besser aber auch für das studierte Arzneimittel.

Wie die Publikumszeitschriften auch leben viele dieser Magazine heutzutage weniger von ihren Abonnenten als von den geschalteten Werbeanzeigen. Jedes Jahr, so lautet die Schätzung von IMS Health, schaltet die Pharmaindustrie für rund eine halbe Milliarde US-Dollar in den Fachmagazinen. Alleine die anerkannten Magazine NEJM und JAMA erhalten mindestens 10 Millionen US-Dollar jährlich.

Dieser Einfluss auf die Unabhängigkeit der Medien setzt sich fort. Denn die Blätter leben nicht nur von Werbeeinnahmen, sondern auch vom Nachdruck ausgewählter Artikel, deren Inhalt die Studienergebnisse für ein bestimmtes Medikament hervorheben. Diese Nachdrucke wiederum werden im Bedarfsfall von dem Hersteller geordert. Mehr noch, einige Verlage entwickeln in Zusammenarbeit mit den Pharma-Herstellern eigenständige Werbe-Magazine, die wie wissenschaftliche Journale aussehen. Der Verlag steht mit seinem guten Namen für die Qualität und Innovation der Beiträge, die allerdings primär Arzneimittel des Kooperationspartners behandeln.

Ein augenfälliges Beispiel dieses Vorgehens kam 2009 ans Licht. Der unter Medizinern anerkannte Elsevier Verlag hatte im Auftrag des Pharma-Konzerns Merck Inc. (nicht zu verwechseln mit Merck) mehrere Zeitschriften herausgebracht, unter anderem das „Australasian Journal of Bone and Joint Medicine“. Sie waren wissenschaftlichen Journalen äußerst ähnlich, bestanden aber nicht aus den sonst üblichen peer-reviewed Artikeln.

Es existieren weitere Hinweise darauf, dass die finanzielle Abhängigkeit der medialen Gralshüter das gesamte System wissenschaftlich fundierter Informationsvermittlung unterminiert. 2011 veröffentlichte eine deutsche Forschergruppe einen Aufsatz, in dem sie der Frage nachgingen, ob die Einkommensquelle deutscher Fachblätter Auswirkungen auf deren Arzneimittelempfehlungen hat. Es zeigt sich, dass kostenlose Journale (Ärztezeitung, Der Hausarzt, Medical Tribune, Der Allgemeinarzt) eher zu Empfehlungen von Substanzen tendieren, die von Journalen, die primär durch die Leserschaft finanziert werden, eben gerade nicht empfohlen wurden. Aber während die genannten kostenlosen Magazine mit Auflagen zwischen 50.000 und 67.000 in den Praxen der Republik verteilt werden, erscheinen Abo-Magazine wie das arznei-telegramm, Der Arzneimittelbrief und die Zeitschrift für Allgemeinmedizin mit einer Auflage zwischen 3.000 und 14.000 Stück.

Die Geister, die ich rief…

Die Qualität der Beiträge in den Magazinen leidet zudem unter Ghostwriting. Medizinische PR-Beratungsfirmen wie DesignWrite stellen gesamte Artikel oder wichtige Teile wie statistische Analysen zur Verfügung. So erarbeiten Auftraggeber, Beratungsfirmen und Autoren zusammen Fachartikel, die mehr oder mindern unauffällig die Vorteile einer neuen Anwendung postulieren.

Richard Horton, ehemaliger Herausgeber des Lancet, sprach gegenüber dem britischen Unterhaus von einem „Standardinstrument“, die Journale mit Ghostwriter-Editorials, Rezensionen, Reviews und Artikeln zu beglücken. Seltsamerweise ist noch nie ein Autor dafür belangt worden, dass er seinen Namen für einen Beitrag zur Verfügung gestellt hat, den er selbst gar nicht geschrieben hat.

Ghostwriting nachzuweisen ist schwierig, meist sind es Einzelfälle, die bekannt werden. Das letzte prominente Beispiel ist der Fall des anerkannten Osteoperose-Experten Robert Lindsay, dem vorgeworfen wird, über Jahrzehnte eng mit verschiedenen Pharma-Unternehmen zusammen gearbeitet zu haben.

Um dem Phänomen empirisch näher zu kommen, wählten 2011 Forscher eine repräsentative Auswahl von Artikeln in sechs der führenden medizinischen Fachblätter und kontaktierten alle deren rund 900 Autoren. Acht Prozent waren danach fremdbestimmt geschrieben worden, die Dunkelziffer dürfte erheblich höher sein. Bereits Ende der 90er Jahre hatte die Cochrane Organisation darauf hingewiesen, dass ihre Analyse von Fachartikeln Hinweise auf neun Prozent Ghostwriting und 39 Prozent „gift-autorship“, also die Bereitstellung des Namen in einem Autorenkollektiv, gefunden habe.

Es wäre naiv anzunehmen, dass finanziellen Bindungen zwischen Autoren und pharmazeutischer Industrie nicht Auswirkungen auf den Inhalt der Aufsätze und Artikel hat. Und auch das wurde mittlerweile mehrfach nachgewiesen. Eine Studie untersuchte beispielsweise die Abhängigkeit von positiver Einschätzung von Calciumkanalblocker durch wissenschaftliche Autoren und deren ökonomischen Beziehungsgeflecht. Ihr Fazit: „Unsere Ergebnisse zeigen einen starken Zusammenhang zwischen den von Autoren veröffentlichten Positionen zur Sicherheit von Calcium-Kanal-Antagonisten und ihren finanziellen Beziehungen zu den Arzneimittelherstellern.“

Interessanterweise trägt der Erfolg der in Teil 1 beschriebenen Auftragsforschungsinstitute zur Ausbreitung von Ghoswriting bei. Denn die CROs spalten klinischen Studien in ihre Bestandteile auf, um diese von unterschiedlichen Personen und Teams bearbeiten zu lassen. Autorenschaft und die Publizierung in wissenschaftlichen Organen haben dabei keine Priorität, die Karriere des zuständigen Mitarbeiters hängt nicht an der Veröffentlichung von Beiträgen in möglichst hoch bewerteten Journalen ab. Das Outsourcing auch dieses Prozesses bietet sich an.

Insgesamt ist bei aller Flut von medizinischen Arzneimittelstudien der wahre, evidenzbasierte Wissensstand über Medikamente ungenügend. Die traditionelle Kontrolle von Aufbau, Durchführung, Analyse und Nachbereitung klinischer Studien funktioniert unter den Bedingungen des modernen Marktes nicht mehr. Negative Studiendaten werden unterschlagen, Fachmagazine und Autoren in Abhängigkeit gebracht, Behörden in Grabenkämpfe verwickelt. Die pharmazeutische Wissenschaft droht sich vom Wahrheitsfindungsprozess abzukoppeln, weil auch sie im System allgegenwärtiger Rationalisierung, Ökonomisierung und Globalisierung agieren muss.


Teil 3 behandelt das Pharma-Marketing und umreißt Strukturen eines optimierten Zulassungs- und Kontrollsystems.

Kategorien
Gesundheitssystem

Arzneimittel – der kontinuierliche Skandal, Teil 1

telepolis, 27.12.2012

Über Studiendesign, beauftragte Institute und geistiges Eigentum

Jörg Auf dem Hövel

Die verschiedenen Bestandteile des Systems der Arzneimittelzulassung und Kontrolle sind degeneriert und ihrer ursprünglichen Funktionen beraubt worden. Dies betrifft sowohl Design und Vollzug der klinischen Studien am Patienten, als auch die Kontrollmacht der Wissenschaftsorgane und Regulierungsbehörden. Einblicke in eine kranke Welt, die uns gesund halten soll.

Bevor ein Medikament verschrieben werden darf, muss es eine ganze Reihe von Hürden nehmen. Zunächst wird im Tierversuch die Verträglichkeit des neuen Wirkstoffs getestet. Erst darauf folgt in einer sogenannten „klinischen Studie“ (Phasen I-IV) die Anwendung am Menschen. Der Wirkstoffhersteller finanziert den gesamten Prozess und ist naturgemäß an der Markteinführung interessiert. Aus diesem Grund unterliegt das Design dieser Studien einerseits einer Kontrolle durch Ethikkommissionen, andererseits läuft es immer Gefahr, so entworfen zu werden, dass positive Ergebnisse heraus kommen.

Über die letzten Jahre ist durch wissenschaftliche Analysen, investigative Recherche und Whistleblower immer deutlicher geworden, dass der Output dieser klinischen Studien extrem fehlerbehaftet ist. Mehr noch, ein großer Anteil von Studien, deren Ergebnisse dem Auftraggeber nicht zusagen, wird erst gar nicht veröffentlicht.

Überspitzt könnte man formulieren, dass für den überwiegenden Anteil aller auf dem Markt befindlichen Medikamente nicht fest steht, wie wirksam sie tatsächlich im Vergleich zu anderen (pharmakologischen) Therapiemaßnahmen sind.[1] Die Ursachen sind vielfältig:

 

  • Für viele Forscher ist die Unterzeichnung eines Vertrages Normalzustand, in dem sie sich verpflichten, die Ergebnisse geheim zu halten, bevor der Auftraggeber die Genehmigung zu Veröffentlichung erteilt. In einigen Verträgen behalten sich diese auch das Recht vor, die Studie zu jedem Zeitpunkt abbrechen zu dürfen. Auch den Studienteilnehmern, also den Patienten, steht oft nicht das Recht zu, die Ergebnisse einzusehen.
  • In den meisten Fällen ist das Design so ausgelegt, dass das neue Arzneimittel seine Wirkung nur gegenüber einer Placebo-Pille und nicht gegenüber einem bereits auf dem Markt befindlichen Medikament beweisen muss. Dieses Vorgehen legt die Latte niedrig. Dies ist gerade vor dem Hintergrund der Tatsache bedenklich, dass der Anteil der Placebo-Responder, also derjenigen Probanden, die auf einen Placebo positiv reagieren, aus noch nicht genau bekannten Gründen gerade bei den Psychopharmaka immer höher] wird.
  • Eine andere Variante ist es, zwar ein Konkurrenzprodukt zum Vergleich heranzuziehen, dieses aber in zu hoher oder niedriger Dosis zu verabreichen.
  • Teilweise sind die Versuchsgruppen zu klein, um verallgemeinerbare Ergebnisse zu erhalten.
  • Über die Auswahl der Teilnehmer werden die Ergebnisse präformatiert. Denn oft sind Studienteilnehmer gesünder als die späteren, realen Patienten, im Regelfall sind sie zudem mit weniger Begleiterkrankung belastet. Die Wirksamkeit der Testsubstanz stellt sich dadurch besser dar.
  • Die primären Endpunkte (beispielsweise der komplette Rückgang der Erkrankung) werden nachträglich geändert. Eine Dateianalyse zeigt dies beispielsweise für das Antiepileptikum Gabapentin. Wie üblich war knapp die Hälfte der jemals durchgeführten klinischen Studien zu Gabapentin nie veröffentlicht worden. Für 12 veröffentlichte Studien überprüften die Autoren nun, ob die in den internen Dokumenten im Vorwege gesetzten Endpunkte mit den späteren übereinstimmten. Aber von den 21 genannten Endpunkten erschienen später nur elf. Sechs wurden ganz unter den Tisch fallen gelassen, weitere vier wurden plötzlich zu sekundären Endpunkten.
  • Ein ähnliches Vorgehen attestierten Statistiker klinischen Studien schon 2004. Das Centre for Statistics in Medicine in Oxford nahm 102 klinische Studien unter die Lupe, deren Ergebnisse in 122 Fachmagazinartikeln veröffentlicht wurden. Über die Hälfte der Endpunkte war, glaubt man der Analyse, unzureichend wiedergegeben und fast zwei Drittel hatten im Verlauf ihren primären Endpunkt verändert.
  • Mehrere Endpunkte werden so kombiniert, dass undeutlich ist, das ein vergleichsweise unwichtiger Endpunkt den größten Beitrag geleistet hat.
  • Es werden mehrere Endpunkt gewählt, in der späteren Analyse werden aber nur die mit positiven Ergebnissen genannt.
  • Weil messbare und klar defininierte Endpunkte oftmals schwer zu erreichen sind, werden Ersatz-Messwerte (med. Surrogat-Marker) herangezogen, von denen ein Zusammenhang zu Krankheit vermutet oder aus früheren Untersuchungen als bewiesen gilt. Ein Beispiel hierfür ist die Verringerung der Chance von Herzinfarkten durch das Senken des Cholesterinwerts mit Hilfe von Statinen. Inzwischen reibt man sich an diversen, lange als gesichert geltenden Erkenntnissen, die durch Surrogat-Marker gewonnen wurde, denn es ist bekannt, dass ein statistischer Zusammenhang nicht unbedingt eine Kausalität anzeigt und zudem Ausbruch und Verlauf von Krankheiten von diversen Einflüssen abhängen.
  • Es werden Subgruppen aus der Untersuchungseinheit heraus gelöst, bei denen das Medikament gewirkt hat. Damit werden Hypothesen erst nach der Datenerfassung gebildet.
  • Die Aussteiger aus der Studie werden in der späteren Analyse ignoriert.
  • Eine weitere Möglichkeit ist es, eine Studie früher als geplant abzubrechen, weil die bis dahin gewonnenen Daten positiv sind. Eine systematische Übersichtsarbeit von der McMaster Universität in Kanada kam 2005 zu dem Ergebnis, dass sich die Anzahl der abgebrochenen Studien seit 1994 verdoppelt hatte.
  • Es wird nicht beides, relativer und absoluter Nutzen einer Arznei angegeben. Das geschieht vor allem deswegen, weil Studien gezeigt haben, dass ein relativer Nutzen gerne überschätzt wird.

 

Im Gesamtbild ergibt die Liste eine Beantwortung auf die Frage, warum klinische Studien, die durch den Hersteller der Substanz finanziert werden, zu signifikant besseren Ergebnissen führen.

Aufragsforschungsinstitute: CROs

In den USA von der dortigen Zulassungsbehörde FDA genehmigten Arzneimittel dominieren seit dem 2. Weltkrieg den globalen Markt der Medikamente. Im Rahmen von Harmonisierungsmaßnahmen wurden seit den 50er Jahren die FDA-Reglementierungen von vielen Ländern übernommen, sie bilden daher bis heute die Basis der weltweiten Arzneimittelzulassungspraxis.

Lange Zeit wurden klinische Studien für Arzneimittel primär an Universitätskliniken und den damit verbundenen, sogenannten Academic Health Center (AHC) oder Zentren für klinische Studien in den USA und Europa durchgeführt. Diese hatten selbst Interesse an der Forschung, die Durchführung wurde aber schon immer in mindestens 2/3 aller Fälle von der pharmazeutischen Industrie finanziert.

Die Aufgrund von Arzneimittelskandalen und Patientenschutzerwägungen verschärften Zulassungsmodi führten dazu, dass sich der Prozess bis zur Markteinführung eines Medikaments zum Leidwesen der pharmazeutischen Industrie immer mehr verlängerte. Im Rahmen der Globalisierung und der entdeckten Vorteile des Outsourcing entstanden in 80er Jahren sogenannte Auftragsforschungsinstitute (Contract Research Organization, CRO), die heute weltweit Arzneimittelstudien in all ihren Phasen durchführen. Weithin unbeachtet von der Öffentlichkeit (eine Geschichte der CROs liegt bis heute nicht vor) wurde Wissenschaft dadurch privatisiert und kommerzialisiert. Diese Entwicklung hat sich verfestigt und dabei nicht nur die Arzneimittelforschung revolutioniert, sondern auch die Wissensproduktion und Publikationskultur radikal verändert.

Die Regierungen drängen seit den 1980er Jahren nicht nur in Deutschland auf eine enge Zusammenarbeit von Industrie, Wissenschaft und öffentlichen Sektor. Man hofft auf Innovationen und gesenkte Kosten. Zudem sind die CROs Teil einer übergreifenden Entwicklung, die die Neuordnung des geistigen Eigentums, des Wandels der Wissensproduktion und des Ghostwriting umfasste.

Das Durchführen von klinischen Studien in CROs dekonstruiert das bis dahin übliche Studiendesign in seine Einzelteile und legt es in unterschiedliche Hände. Die nun zuständigen Beteiligten, seien es Patientenanwerber, Betreuer oder Statistiker sind nur dem Auftraggeber verpflichtet und in keiner Weise mehr an die Belange der medizinischen Wissenschaft gebunden. Die Studienprotokolle sind primär auf die optimale Kontrolle einer zügigen Arzneimittelentwicklung ausgelegt. Das Teilen der Erkenntnis ist sekundär, mehr noch, ob die Daten veröffentlicht werden wird endgültig von der Industrie bestimmt.

2008 stellten Wissenschaftler vom MIT fest (Artikel), dass der überwiegende Teil (66%) der klinischen Forschung nach wie vor in den klassischen Ländern stattfindet. Das wird nicht so bleiben. Die Marktforscher von Frost & Sullivan prognostizieren dem asiatischen CRO-Markt einen jährliche Wachstumsrate von 20% und spätesten 2015 Erlöse von 2,5 Milliarden US-Dollar im Jahr. Hierbei stechen Indien und China hervor, deren Regierungen bemüht sind beste Bedingungen für die Arbeit der CROs zu schaffen. Die Industrie kalkuliert mit den „Kosten pro Patient“, diese sollen in diesen Ländern um zwei Drittel niedriger sein.

Wichtiger noch ist aber die weitaus schnellere Abwicklung der Studien, womit sich der gesamte Zulassungsprozess beschleunigen lässt. Die Vereinigung der CRO-Unternehmen (ACRO) stellt aktuell auf ihrer Website dar, dass von ihren Mitglieder bereits 2009 über 9.000 Studien mit 2 Millionen Teilnehmern in 115 Ländern durchgeführt wurden.

Die Problemfelder solcher Studien sind virulent: Analphabeten müssen die Einwilligungserklärungen vorgelesen werden, unterschrieben wird mit Daumenabdruck. Im Schlepptau der CROs reisen die Beamen der Zulassungsbehörden an, um das korrekte Vorgehen vor Ort zu überprüfen – ein schwieriges Unterfangen.

Damit ist die Rolle der Ethikkommissionen angesprochen, die jede klinische Studien begleiten, um Schaden von den Patienten abzuwenden. Diese sind im Normalfall den Institutionen zugeordnet, in denen die klinischen Studien stattfinden. Der pharmazeutischen Industrie waren und sind diese Kommissionen ein Dorn im Auge, nicht zuletzt weil sie langsam arbeiteten und ausführliche Regelwerke aufstellten. Um den Prozess der Zulassung zu beschleunigen und auch kleineren Forschungsinstituten wie den CROs die Forschung zu ermöglichen, genehmigte die FDA 1981 auch privatwirtschaftlich organisierte IRBs. So entstanden bioethische Beratungsfirmen, die, so zeigten nachfolgende Analysen (Parexel Sourcebook), die Forschungsanträge erheblich schneller bearbeiteten.

Es wäre interessant zu erforschen, ob CRO-Arzneimittelstudien in Asien und Afrika systematisch zu anderen Ergebnissen kommen. Aber auch dies ist durch das Arkan-Verhalten von Industrie und Regulierungsbehörden zur Zeit nicht möglich. Es ist nicht einmal bekannt, wie viele Studien teilweise oder vollständig in Asien, Indien oder Afrika durchgeführt wurden. Weder die FDA noch die EMA verpflichten die Hersteller zu dieser Angabe.

Um zumindest die technische Qualität zu gewährleisten, bemüht sich ein Zusammenschluss von Regulierern und Industrie (International Conference on Harmonisation of Technical Requirements for Registration of Pharmaceuticals for Human Use) um die Harmonisierung der Rahmenbedingungen in globalisierten Studien. Wie Arzneimittel in verschiedenen Populationen wirken, ist nicht nur eine genetische, sondern auch kulturelle Frage. Von den ethischen Erwägungen ganz zu schweigen, die solche Studien aufwerfen. In den Industrieländern fällt es den Pharma-Herstellern schwer, überhaupt noch unbehandelte, nicht mit diversen Arzneimittel-Vorerfahrung gesegnete Probanden zu finden. In anderen Regionen der Welt treibt dagegen die Armut die Probanden in die Labors.

Ein neuer Weg zu geistigem Eigentum: MTAs

Der Erfolg der Auftragsforschungsinstitute hängt mit einem weiteren Faktor zusammen. Seit die Patentierung von lebenden Organismen möglich ist, haben biopharmazeutische Firmen beispielsweise Patente auf Zell-Rezeptoren zugesprochen bekommen. Damit ist die Nutzung dieses Rezeptors reglementiert, nicht nur als pharmazeutisches Produkt, sondern auch als Forschungsinstrument.

Ein solcher Rezeptor könnte beispielsweise dabei helfen, bis dato unbekannten Hormone zu entdecken. Wer diesen Rezeptor für solche Screenings nutzen will, muss Gebühren an den Patentinhaber zahlen. Diese „lebenden Forschungsinstrumente“ stellten sich als lukrative Geldquelle für kleine und biopharmazeutische Firmen heraus. Zugleich wurden sie aber zu einem Instrument der Geheimhaltung. Wissenschaftler an Universitäten hatten sich bislang solche Rezeptoren kostenlos gegenseitig zur Verfügung gestellt. Für die Industrie ein unhaltbarer Zustand, denn damit konnte im Zweifelsfall auch die Konkurrenz von diesen Forschungsinstrumenten profitieren.

Um eine noch größere Kontrolle über Forschungsergebnisse zu erlangen, entwarfen biotechnischen Firmen und CROs eine juristische Konstruktion mit Namen „materials transfer agreement“ (MTA). In diesen Verträgen werden die Bedingungen geregelt, unter denen Dritten biologische Materialien (Zellen, Antikörper, Rezeptoren, usw.) überlassen werden dürfen. So wird genau festgeschrieben, was ein Dritter mit dem Material überhaupt anstellen darf, wer für etwaige Schäden haftet und vor allem, wie bei Erfindungen und Veröffentlichungen in Fachblättern zu verfahren ist.

Was harmlos klingt, hat nach Ansicht einiger Wissenschaftler zu einer Blockade medizinischer Forschung geführt. CROs und MTAs sind danach komplementäre Instrumente: Dem Auftragsforschungsinstitut wird vertraglich untersagt, geistiges Eigentum zu behalten, der einzelnen Wissenschaftler wird davon abgehalten, geistiges Eigentum zu finden. Im Ergebnis haben die Pharma-Hersteller die Kontrolle über fast jeden Aspekt der klinischen Arzneimittelforschung.


Teil 2 behandelt die schwindende Macht von Behörden und wissenschaftlichen Fachblättern sowie den Zugang zu Studiendaten.

Teil 3 versucht Bestandteile eines optimierten Zulassungssystems zu entwerfen.


Ben Goldacre hat ein erhellendes Buch zu dem Themenkomplex mit dem Titel „Bad Pharma“ geschrieben. Eine unbedingte Empfehlung!

Kategorien
Übermensch

Transplantation menschlicher Neuronen in Mäusegehirn gelingt

Die Nervenzellen aus Stammzellen und das umliegenden Gewebe nahmen Kontakt auf

Wissenschaftlern ist die Transplantation von menschlichen Neuronen aus Stammzellen in ein Mäusegehirn gelungen. Erstmals konnten sie dabei mittels eines neuen Verfahren prüfen, ob die implantierten Neuronen und das umliegenden Nervengewebe kommunizieren. In den Proceedings of the National Academy of Sciences berichten die Forscher um Jason Weick von der Universität von Wisconsin von dem Verfahren, das als Optogenetik bezeichnet wird.

Ausgangspunkt war eine embryonale Stammzelle, die schon heute im Labor zu Körperzellen ausdifferenziert werden können. In das Erbgut so einer Stammzelle, in diesem Fall einem Neuron, wird ein Gen eingeschleust, das mit einem dem Sehpurpur des Auges verwandten Ionenkanal kodiert. Dieser Kanal kann später von außen durch Licht aktiviert werden. Weick gelang es auf diesem Wege, in den umgebenden Nervenzellen sowohl hemmende als auch erregende Impulse auszulösen.

Das Experiment gilt als der bislang überzeugendste Versuch, Stammzellen in ein existierendes Nervennetzwerk zu integrieren. Der nächste Schritt ist die Transplantation in das Gehirn einer lebenden Maus. Welche Wirkung die lokale Aktivierung von Nervenzellen dann auf ganze Hirnregionen oder gar das Gesamtsystem zeigt, ist völlig offen.

http://www.heise.de/tp/blogs/3/150926

Kategorien
Gesundheitssystem Übermensch

Check-up ins Leere

Vorsorgeuntersuchungen sind nutzlos

Die bei vielen Deutschen beliebten Vorsorgeuntersuchungen sind einer systematischen Übersichtsarbeit der Nordic Cochrane Centre zufolge gänzlich nutzlos. Die Forscher kommen nach der Auswertung von 14 Studien mit insgesamt mehr als 180.000 Teilnehmer zu dem Schluss, dass Menschen, die regelmäßig zum Check-up gehen, genau so häufig an einer Krankheit sterben wie andere. Es war die erste systematische Analyse dieser Art. Die Daten von 11.940 Toten aus neun Studien zeigten keine Unterschiede in den beiden Gruppen, weder übergreifend noch bei Krebs oder Herzkrankheiten. Studienleiter Lasse Krogsboll: „Wir sagen damit nicht, dass Ärzte keine Tests durchführen oder Behandlungen anbieten sollten, wenn sie vermuten, dass ein Problem vorliegt. Aber wir denken, dass generelle Gesundheitschecks abgeschafft werden können.“ Beschwerdefreie Menschen können sich also den Weg zum Arzt sparen.

Einige der ausgewerteten Studien haben Hinweise darauf gefunden, dass durch die Vorsorgeuntersuchung Diagnose gestellt werden, die zu keinen Symptomen oder gar einem kürzeren Leben geführt hätten. So wurden laut einer Studie vermehrt hoher Blutdruck oder hoher Cholesterinlevel diagnostiziert. Wenn überhaupt sollten sich Check-ups auf spezifische Krankheiten wie Nierenprobleme und Diabetes konzentrieren.

Auch diese Meta-Analyse unterliegt Beschränkungen. So sind viele der einbezogenen Studie schon vor Jahrzehnten durchgeführt worden. Die Richtlinie und Techniken haben sich seither geändert.

In Deutschland übernehmen die gesetzlichen Krankenkassen bei über 35-Jährigen alle zwei Jahre einen Gesundheits-Check-up beim Hausarzt. Man hofft auf diesem Wege Krankheiten aller Art früh zu entdecken, um durch die rechtzeitige Behandlung einen schwerem Verlauf vorzubeugen. In anderen Ländern existieren ähnliche, kostenintensive Vorsorgesysteme.

Erschienen in der Telepolis unter http://www.heise.de/tp/blogs/3/153005

Kategorien
Gesundheitssystem Übermensch

Verhindert ein aktives Leben die Demenz? Vielleicht.

Schon länger weisen Studien darauf hin, dass ein aktiv geführtes Leben den Ausbruch von Demenz im Alter verhindern kann.

Schon länger weisen Studien darauf hin, dass ein aktiv geführtes Leben den Ausbruch von Demenz im Alter verhindern kann. Eine britische Langzeituntersuchung von über 13.000 Personen und über 300 Gehirnen hat sich nun der Frage angenähert, welche Komponenten genau im Alter geistig fit halten.

Dafür wurde für jeden Teilnehmer ein „Cognitive Lifestyle Score“ (CLS) ermittelt, der sich aus Angaben zu sozialen Kontakten und Engagement, Art und Komplexität des Berufs, der Aus- und Weiterbildung und dem sozioökonomischen Status zusammensetzte. Für den anatomischen Teil der Studie wurden die Gehirne der bis 2004 verstorbenen Teilnehmer unter die Lupe genommen und nach typischen, demenzspezifischen Veränderungen untersucht. Wie man sah, sah man nichts: Die Gehirne von Teilnehmern mit hohem CLS-Wert variierten hinsichtlich krankhafter Alzheimer-Mutationen nicht. Auch war die neuronale Dichte im Hippocampus nicht anders. Nur im Brodmann-Areal 9 fand man eine höhere Dichte.

Überrascht wurden die Forscher von dem Ergebnis, dass ein aktiver Lebensstil bei Männern das Risiko an Hirndurchblutungs-Störungen zu erkranken, um 80% senkte, während dies bei Frauen überhaupt keine Auswirkung hatte. Bei Frauen konnte dagegen eine Beziehung zwischen einem kognitiv aktiven Lebensstil und einem erhöhten Hirngewicht nachgewiesen werden; hier mussten die Männern passen. Auch nach Kontrolle der Kofaktoren blieb unklar, wie diese Unterschiede zu erklären sind. Was bleibt, ist ein offensichtlicher Zusammenhang zwischen rührigem Tun und Denken und biologischen Veränderungen im Gehirn.

Korrespondierend wurde im anderen Teil der Studie erneut bestätigt, dass ein geistig reges Leben die Chance erhöht, nicht an einer Demenzform zu erkranken. Wohlgemerkt reicht dabei eine einzelne CLS-Komponente nicht aus – Gehirnjogging allein hilft also nicht. Das geringere Demenzrisiko war bei den 13.000 Teilnehmern auf der anderen Seite selbst dann zu beobachten, wenn nur eine Kombination von zwei CLS-Komponenten vorlag.

Es gelten die üblichen, schwer zu eliminierenden Einschränkungen einer solchen Studie. So können Kofaktoren wie Stress oder Ernährung existieren, die das Ergebnis maßgeblich beeinflussen. Gerade letztere ist in jüngst in den Fokus gerückt. Bei Mäusen führt ein Eingriff in die insulingestützte Signalverarbeitung zu Ablagerungen im Gehirn, wie sie auch bei Alzheimer auftreten. Forscher wie Suzanne de la Monte sprechen schon von „Diabetes Typ 3“, wenn Hirnzellen insulinresistent werden. Menschen mit Typ 2 Diabetes sind aus ihrer Sicht besonders gefährdet, eine Demenz zu entwickeln. Aber Studien hierzu fehlen bislang und der überwiegende Teil von Alzheimer-Patienten hat keine Typ 2 Diabetes.

Auf die wichtige Rolle von Insulin im Gehirn wurden Wissenschaftler erst in den letzten Jahren aufmerksam. Die Substanz hilft nicht nur Nervenzellen dabei, Glukose aufzunehmen und in Energie umzuwandeln, sie reguliert auch einige Neurotransmitter und unterstützt das Wachstum von Neuronen und Blutgefäßen. Ewan McNay von der Universität von Albany im Bundesstaat New York und Suzanne Craft von der Washington Universität in Seattle setzten jüngst Ratten auf eine 12 Monate dauernde, extrem fettreiche Ernährung. Dies führte bei vielen Nagern zu Diabetes und parallel zur Bildung von amyloiden Plaques, wie sie auch bei Alzheimer Patienten auftreten.

Erschienen in der Telepolis unter www.heise.de/tp/blogs/3/152841

Kategorien
Mixed

Jörg Auf dem Hövel, Artikel zur Technik, dem Internet und der elektronischen Kultur – hier nun eher Humor

Unernst

 

Porno 2.0 (pdf, 2,5mb) (blond, Nummer 100, Dezember 2007)

Beste Trompete in der deutschen Blaskapelle (html oder pdf)  (blond, Juli 2002)

Wie mich jede Frau rumkriegt (html oder pdf) (PETRA, 12/2002)

Zur Golfplatz-Einweihung mit Manni Kaltz  (Hanfblatt, November 2003)

Des Apfelmanns knorrige Hände  (ottensen.de, 1/2000)
Auf Einkaufstour in Ottensen, Teil I

Sackjucken am Spritzenplatz  (ottensen.de, 4/2000)
Auf Einkaufstour in Ottensen, Teil II

Asphalt, bitte küsse mich!
Bungee-Sprung vom Hamburger Fernsehturm

Zusammen gekniffene Ärsche
Unentspannt: Die Wellness-Elite im Meridian

Wie man aus dem Kino heraus geführt wird.
Glattgebügelt in einem Kino-Palast.

Der Stuhlgang Brunnen  (ottensen.de, 10/2000)

Altdeutsches Saunieren  (HanfBlatt, Juni 2001)

 

Kategorien
Elektronische Kultur Mixed

Eine Liste zu Artikeln über elektronische Kultur

Technik und elektronische Kultur

Zwischen 1996 und heute veröffentlichte Artikel – eine Auswahl

Die aktuellsten Beiträge sind oft in der telepolis zu finden.

Enhancement mit Statistik
Die Debatte um die Quantified Self-Bewegung und die Selbststeuerung
Telepolis v. 07.08.2012

Die Datenflut erschafft Zombies
In den Zeiten des Data-Minings braucht es keine Psychologie
Telepolis v. 11.05.2011

Wenn Technik Lösungen, aber keine Antworten bietet
Interview mit dem Philosophen Oliver Müller
Telepolis v. 20.08.2010

Neuroimplantate, pharmakologisches Menschendesign und Elitenzucht?
Teil 1

Telepolis v. 11.04.2009

Neuroimplantate, pharmakologisches Menschendesign und Elitenzucht?
Teil 2

Telepolis v. 12.04.2009

Ärztefortbildung auf Pharma-Portalen
Spiegel Online v. 15.10.2008

Interview über das Gedankenlesen
Gedankenlesen.info v. 29.11.2007

Kupfer am Limit: IPTV im Test
telepolis v. 18.12.2006

Wissenschafts-Glasfasernetz bricht alle Rekorde
Computerwoche v. 01.09.2006

Die IT-Infrastruktur des Reservierungsdienstleisters Sabre (html o. pdf)
Computer Zeitung v. 09.10.2006

Interview mit Stefan Keuchel, Google Deutschland
telepolis v. 18.09.2006

Tröpfchenweises Wissen
telepolis v. 06.08.2006

Der Prozess um die Google Buchsuche
telepolis v. 30.06.2006

Was will Web 2.0?
telepolis v. 07.06.2006

Für wen Linux gut ist (html o. pdf)
Frankfurter Allgemeine Zeitung v. 28.02.2006

Spam: Die digitale Plage
Frankfurter Allgemeine Zeitung v. 15.07.2005

SUV-Köpfe in Kampflaune
telepolis v. 15.09.2005

Der spielerische Krieg
telepolis v. 03.09.2005

Architektur und Sicherheit im Zeitalter des Terrorismus
telepolis 20. 08.2005

IT-Architektur für Riesen (III): Google
Computerwoche, 20/2005

IT-Architektur für Riesen (II): Amazon
Computerwoche, 19/2005

IT-Architektur für Riesen (I): Ebay
Computerwoche, 18/2005

Autoren im Datennirvana
DU, Nr. 752, 11/2004

Funkende Etiketten
Frankfurter Allgemeine Zeitung v. 19.10.04

Sinn und Spaß beim Roboterfußball
telepolis v. 23.06.04

RFID-Chips in der Warenwelt
Morgenwelt v. 14.06.04

Container unter GPS-Kontrolle
Frankfurter Allgemeine Zeitung v. 16.09.03

Online-Journalismus im Tal der Tränen
telepolis v. 03.06.03

Webseiten behindertengerecht bauen
telepolis v. 30.01.03

Der gehemmte Cyber-Sozialismus
Frankfurter Allgemeine Zeitung v. 28.01.03

Deep Fritz vs. Vladimir Kramnik
Frankfurter Allgemeine Zeitung v. 08.10.02

Interview mit Rolf Pfeifer, AI-Lab, Zürich
Künstliche Intelligenz, Heft 1/03

Cyber Sozialismus light
Spiegel Online v. 28.05.02

„Als Intelligenz würde ich das noch nicht bezeichnen“
Künstliche Intelligenz, Heft 3/02

Tatsachen über Maschinen, Denkbarkeiten für Menschen
telepolis v. 07.05.02

Interface 5 ohne Publikum
telepolis v. 17.10.00

Open Source und Free Software
Frankfurter Allgemeine Zeitung v. 21.03.00

Denkmal des Informationszeitalters
Frankfurter Allgemeine Zeitung v. 18.05.99

Nur ein wenig Verschlüsseln ist schwierig
Frankfurter Allgemeine Zeitung v. 17.02.98

Trust Center sollen die Kommunikation sichern
Frankfurter Allgemeine Zeitung v. 10.12.96

Das globale Ohr existiert
Internet World 5/00

Big-Brother Award in Österreich vergeben
Internet World 1/00

Enfopol: Schleichweg zum Euro-Lauschangriff
Internet World 8/99

Ahnungslos den Maulwurf gekauft
Internet World 1/99

NSA und BND schwer auf Draht
Internet World 6/98

Nutzt das organisierte Verbrechen die Verschlüsselung von Nachrichten?
Internet World 3/98

Mit Scientology im Cyberspace
c´t 3/96

Key-Hinterlegung soll den Staat vor Krypto-Mißbrauch schützen
Computer Zeitung v. 2.7.98

Der Computer im Portemonnaie: Smart Cards
Deutsches Allgemeines Sonntagsblatt v. 28.08.98

Der gehorsame Computer
Deutsches Allgemeines Sonntagsblatt v. 20.03.98

Vertrauen ist gut, verstecken besser
Deutsches Allgemeines Sonntagsblatt v. 06.02.98

Den Hackern das Leben erschweren
Business Online 3/98

Aspekte der Sicherheit von E-Mail
Business Online 10/97

Angst vor dem Großen Bruder
Business Online 6/98

Steuern für das Internet?
Business Online 6/98

Music on Demand im Internet
Business Online 7/98

Selbstkontrolle statt Zensur
Internet Online 12/96

 

 

 

 

 

 

 

 

Kategorien
Historische Texte

Historische Texte

Cannabis und andere Rauschmittel im Spiegel der Jahrhunderte. Eine Sammlung seltener oder gar bislang verschollener Berichte.

Achille Zo: Le Reve du Croyant

 

Der Riambakultus
Aus einem Vortrag von Franz von Winckel (1890)

Junggesellen und Haschisch
Graf von Baudissin plaudert drauf los (1925)

Die Mysterien des Haschisch
Eine Ode des Ägypten-Reisenden M. Grohe aus dem Jahre 1863

Haschisch und Haschaschin
Ägyptische Skizzen von Ernst Klippel aus dem Jahre 1910

Beobachtung über die Wirkungen des Haschisch
Erfahrungen des Bremer Afrikaforschers Gerhard Rohlfs aus dem Jahre 1866

Das Haschischschmuggel-Museum in Alexandrien
Ein Sittenbild von E. Koller aus dem Jahre 1899

Herba Cannabis
Aus dem „Lehrbuch der Pharmacologie“ (1. Auflage 1856) des Wiener Pharmakologen Carl Damian Ritter von Schroff

Schach matt! mit dem Höllenkraut Haschisch
Eine Skizze von Amand Freiherr von Schweiger-Lerchenfeld (1879)

Ein Haschischrausch im Sommerloch
Artikel von Philipp Berges (ca. 1895)

Haschisch und Unsterblichkeit
Ideen des Königlich Sächsischen Bezirksarztes Dr. Emil Richard Pfaff (1864)

 

Kategorien
Cognitive Enhancement Gesundheitssystem Übermensch

Die Debatte um die Quantified Self-Bewegung und die Selbststeuerung

telepolis, 07.08.2012

Enhancement mit Statistik

Jörg Auf dem Hövel

Die Debatte um die Quantified Self-Bewegung und die Selbststeuerung

Die Selbsterkenntnis per Datenanalyse hat Konjunktur. Wo früher Waage und Fieberthermometer ausreichen mussten, um den eigenen Gesundheitszustand zu messen, stehen heute eine Vielzahl von Gadgets bereit. Bio-Sensoren und Apps können Körperfunktionen in jeder Lebenslage aufzeichnen, aus den gewonnenen Daten werden Handlungsanweisungen für optimalen Schlaf, gesündere Ernährung, bessere Fitness und höhere Intelligenz gezogen. Das Quantified Self ist geboren, die lose gekoppelten Mitglieder dieser Bewegungen, die sogenannten Self-Tracker, wollen sich optimieren. Die Fitness- und Gesundheitsbranche sieht neue Geschäftsfelder wachsen, aber es wird auch Kritik laut.

Auf dem Markt sind bereits Waagen, die das Gewicht und den BMI per WLAN an den PC oder das Smartphone senden. Einige erlauben das Teilen der Daten auf Facebook und Twitter. Einen Schritt weiter geht Beeminder. Das System zieht Geld vom Konto ein, wenn man sein Trainingspensum nicht erfüllt. Und unter www.trackyourhappiness.org behauptet, eine App gar feststellen zu können, welche Tätigkeiten den Anwender glücklich machen. Viele Produzenten sammeln die anonymisierten Informationsströme, um Datenbanken mit Nutzerverhalten aufzubauen. So pflegt beispielsweise ein Hersteller von Schlafsensoren, die Firma Zeo, mittlerweile eine der weltweit größten Datenbanken über das menschliche Schlafverhalten.

Ein Hobby für Nerds, könnte man meinen. Und tatsächlich sieht man auf den Treffen zumeist junge Männer die Tabellen und Ansätze diskutieren. Florian Schumacher vom Quantified Self Netzwerk Deutschland weist gleichwohl darauf hin, dass bereits heute viele Menschen digitale Produkte, welche auf der Selbst Quantifizierung basieren, verwenden. Ob Schlafphasenwecker, Menstruationskalender oder GPS-Tracking für Sportler – eine Vielzahl von Smartphone Apps basiere auf der Messung und Analyse von persönlichen Daten. „Zugleich wird auch von medizinischer Seite immer häufiger die regelmäßige Kontrolle von Werten wie Gewicht, Blutdruck oder Blutzucker empfohlen und Ansätze aus der Telemedizin werden zunehmend populärer.“ Durch diese Trends sei davon auszugehen, dass sich Sportler und Patienten zukünftig häufiger quantitativ beobachten, um Ihre Leistungen oder ihre Gesundheit zu verbessern.

In Deutschland ist die Szene klein und diversifiziert. Die deutsche Quantified-Self-Facebook-Gruppe hat zur Zeit 146 Mitglieder. Nicht alle sind eingefleischte Body-Hacker, vielen geht es eher darum, Trainingseffekte zu messen und ihre Gesundheit auf einem guten Stand zu halten.

Die schillerndsten Blüten sprießen wieder einmal in den USA. Dort erlauben einige Self-Tracker jedermann ihre Einsicht in Hirnstrom- und Stuhlgangwerte. Der Tracker Chris Volinksy stellt beispielsweise seinen kompletten und immer aktuellen Gesundheits-Datensatz zum Download zur Verfügung. Dies umfasst zur Zeit Schrittanzahl, Gewicht und Produktivität, aber beispielsweise noch keine Blutwerte. Andere, wie Dave Asprey, haben das Quantified Self zu einer die gesamte Existenz umfassenden „Biohacking“ ausgebaut und bieten verschiedene Produkte an, die als cognitive enhancer wirken sollen.

Corpus Delicti

Dieser technische Enthusiasmus ruft Kritiker auf den Plan. Diese reiben sich nicht nur am gefährdeten Datenschutz, sondern befürchten einerseits einen Kampf gegen den eigenen Körper, der sich der Illusion hingibt, über eine manische Selbstkontrolle Herr über das eigenen Schicksal werden zu können. Andererseits sieht man in der Trackern die Spitze der gesellschaftlichen Tendenz, die physische Vollkommenheit als das höchste Gut im Leben zu sehen.

Jüngst hat die Autorin Juli Zeh mit einem grimmigen Artikel zu Wort gemeldet. Zeh hatte schon in ihrem Roman „Corpus Delicti“ eine Gesundheitsdiktatur beschrieben, in der hyperhygienische Kontrollen und Regulationen herrschen. In der Selbst-Quantifzierung sieht sie nun einer Art Magersucht für Männer, in den Trackern die Versuchskaninchen für das aufkeimende „Konzept des Gesundheitsuntertanen“. Ihr Argument: „Wenn es einen optimalen Lebensstil gibt, der zum optimalen Körper führt, dann gibt es auch messbare Abweichungen, an die sich Belohnung und Strafe knüpfen lassen.“

Florian Schumacher hält solche Befürchtungen für übertrieben. Einen allgemein gültigen, optimalen Lebensstil gäbe es ohnehin nicht, da sich jeder Mensch in seinem Stoffwechsel, seinen gesundheitlichen Voraussetzungen und seinen persönlichen Bedürfnissen unterscheide. „Lösungen nach dem Prinzip von Quantified Self zielen darauf ab, besser auf den Einzelnen mit seinen individuellen Besonderheiten einzugehen. Die Auseinandersetzung mit sich selbst führt zu Wissen, welches man für einen selbstverantwortlichen Lebensstil einsetzen kann.“ Darin sieht er primär eine Chance zum mündigen Umgang mit der eigenen Gesundheit.

Das Selbst und seine Steigerung

Die Optimierungsbemühungen der Quantified Self Bewegung fallen in eine Zeit, in der das Individuum ohnehin als durch und durch messbare und jederzeit zu verbessernde Gestalt interpretiert wird. Die Gesundheits- und Pharma-Industrie steht zur Seite, wenn es darum geht, an beliebigen Stellschrauben zu drehen: Nahrungsergänzungsmittel für die tägliche Ernährung, Koffein für das Büro, Stimulanzien für den Abend und vor dem Halbmarathon ein paar Schmerzmittel. Eine Zeit lang schien es, als das mit den sogenannten „cognitive enhancern“ pharmakologische Mittel zur Verfügung stehen, die Aufmerksamkeit, Aufnahmekapazität oder gar Intelligenz steigern. Die nähere wissenschaftliche Analyse relativierte dies stark, mehr als Wachbleiben ist kaum drin, Steigerungen einiger kognitiven Funktionen gehen meist mit Verringerung anderer Funktionen einher.

Um nicht nur die rationalen Funktionen, sondern die Gesamtstimmung auf hohem Niveau zu halten, können Antidepressiva dienen. Die Grenze zwischen Therapie und Enhancement ist hier nicht immer so scharf, wie dies gerne von der Ärzteschaft behauptet wird. Ob nun aber beispielsweise in Deutschland eine Überversorgung herrscht, wird diskutiert. Der aktuelle Arzneimittelreport behauptet dies, die Fachschaft widerspricht. Das Beispiel der medikamentenaffinen USA („Listening to Prozac“) mag als Warnung dienen, lässt sich aber nicht auf Europa übertragen. Zur Zeit wird die Wirkung des „Kuschelhormons“ Oxytocin erforscht. Die Therapeuten hoffen auf soziale Bindungsaktivierung. Allerdings zeigt sich, dass bei Menschen mit einer bestimmten Ausprägung der Oxytocin-Rezeptoren das Mittel seine Wirkung kaum oder gar nicht entfaltet.

Ob Zeiten des „emotionalen enhancement“ vor der Tür stehen ist offen. Felicitas Krämer von der Technischen Universität Eindhoven untersucht deren Ethik und warnt vor Eingriffen in die Psyche von Gesunden. „Das emotionale Enhancement scheint mir noch problembehafteter und komplexer als das kognitive, denn es geht nicht einfach um Steigerung.“ Die früher diskutierten Fragen der Natürlichkeit der Gefühle, die beim emotionalen Enhancement evoziert werden, hält sie für nachrangig. „Ich denke, wir können biokonservative Argumentationen nach dem Motto ‚etwas ist deshalb problematisch, weil es künstlichen Ursprungs ist‘ mittlerweile ganz beiseite legen. Sie sind widerlegbar. Stattdessen sollte der Diskurs sich hauptsächlich mit der Lebensqualität der Konsumenten und den möglichen negativen Folgen des Konsums befassen.“

Ob Hirndoping, Antidepressiva oder Entaktogene: Hinweise auf gutes Gelingen und inneren Frieden sind möglich, das Vertrauen auf die andauernde Wirkung wird zumeist enttäuscht. Es besteht immer die Chance, dass unser Körpersystem allzu schnelle Veränderungen an sich als Störung empfindet. Wer sich aufgrund innerer Querelen ändern will, darf Zeit einplanen. Eine Binsenweisheit vielleicht, genauso wie die Feststellung, dass genau diese Zeit heutzutage Mangelware ist. Und, nur nebenbei bemerkt, treffen sich an dieser Stelle diejenigen, die Heilung auf Knopfdruck durch Pharmakotherapie und diejenigen, die spirituelle Erweckung durch Urwaldaufenthalte mit Ayahuasca-Sitzungen erwarten.

So sehr man den Optimierungswahn auch kritisieren mag: Quantified Self könnte durchaus zur zivilen Selbstermächtigung und der damit möglichen Autonomisierung von den Institutionen des Gesundheitssystems und Fitnessbranche beitragen. Folgt man allerdings Autoren wie Juli Zeh ist körperlich-geistige Kultivierung ohne Unterordnung unter das kapitalistische Leistungsdiktat überhaupt nicht möglich. Auch die junge Bewegung des Quantified Self kommt nicht um die Frage herum, ob sie einer weiteren Form leistungsgesellschaftlicher Anpassungsvorgänge unterliegen und zur Erosion gesellschaftlicher Solidarität beitragen.

Es ist nie einfach zu sehen, ob man etwas tut, weil man es von sich erwartet oder es von einem erwartet wird. So tief braucht man zudem nicht blicken, um zu erkennen, dass diese Technologie mehr ist als nur ein Mittel, genaueres über sich selbst zu erfahren. Denn an das Funktionsverständnis ist der Optimierungswille eng gekoppelt. Und ein hypertechnischer Ansatz, der zentrale Lebensbereiche in den Verfügungsbereich der Technik stellt, ist für Selbstverdinglichung durchaus sensibel.

 

]]>

 

zurück zur Startseite von Jörg Auf dem Hövel mit weiteren Interviews und Artikeln

 

Kategorien
Elektronische Kultur

Die IT-Architektur von Google

Computerwoche, 20/2005
Aktualisiert am 17.6.2011

Ergänzt am 05.07.2012

Google setzt auf Billighardware

Jörg Auf dem Hövel

Die IT-Architektur der größten Suchmaschine

Zu jedem Internet-Startup-Unternehmen gehört eine Legende. Die von Google spielt Mitte der 90er Jahre in den Lagerräumen der Stanford University rund 60 Kilometer südlich von San Francisco. Hier tauchen die beiden befreundeten Studenten Larry Page und Sergey Brin immer wieder auf, um zu kontrollieren, welches Universitätspersonal neue Rechner erhält. Die veralteten PCs und Server der Mitarbeiter sammeln sie und binden sie in ihr eigenes Netzwerk ein. In diesem wollen sie die Antwort auf eine der großen Fragen des Computerzeitalters finden: Wie ziehe ich aus einer riesigen Menge an Daten die für mich relevanten Informationen heraus?

Heute ist die Antwort klar: mit Google. Die von Page und Brin entwickelte Suchmaschine ist wegen ihrer Schnelligkeit, der aufgeräumten Benutzeroberfläche und der Qualität der Suchergebnisse das weitaus beliebteste Tool zum Aufspüren von Informationen im Internet – im Durchschnitt erhält Google mindestens 1000-mal in der Sekunde eine Anfrage. Hinter der schlichten Oberfläche in über 88 Sprachen und mehr als 80 Domänen verbirgt sich eine Armada von Billigrechnern, die grundsätzlich noch immer nach dem Prinzip der ersten Stunden von Google aufgebaut sind.

Geografische Lastverteilung

Surft ein User zu www.google. com, sorgt zunächst ein DNS-basierender Lastenverteiler unter www.google.akadns.net dafür, dass der Anwender zu Google-Rechnern in seiner geografischen Nähe geleitet wird. Die Nutzung des DNS (Domain Name System) als Lastverteiler baut auf dessen TTL-Wert („Time to Live“) auf. Das DNS legt für jede Domain fest, wie lange sie im Cache eines Servers verleiben darf; im Normalfall sind das mehrere Tage. Ist die TTL abgelaufen, muss der Name-Server des Anwenders die IP-Adresse über das DNS anfordern. Google und sein Partner Akamai haben aber die TTL auf Sekunden eingestellt, so dass die Name-Server die IP-Adresse der Domain www.google.com nur kurz speichern dürfen, danach müssen sie eine neue IP beim zuständigen Name-Server von Google (beziehungsweise Akamai) anfordern. Auch ein einfaches Ping auf www.google.de zeigt ständig wechselnde IP-Adressen.

Die Suchanfragen werden also an wechselnde physikalische Rechenzentren gerichtet

google logo

Dieses Vorgehen hat zwei Vorteile: Zum einen verringert sich die Reisezeit der Datenpakte, was zu kürzeren Antwortzeiten führt, zum anderen laufen nicht alle Suchanfragen in den USA auf. Das Unternehmen nennt seine globalen Rechnerstandorte „Cluster“, hält aber geheim, wo genau die Rechnerfarmen stehen. Während andere IT-Giganten sich über ihre Infrastruktur in Schweigen hüllen, ist Google zwar auskunftsfreudiger, steht aber zugleich in dem Verdacht, die Mitbewerber über das wahre Ausmaß des ausgedehnten Rechnernetzes in die Irre zu führen. Zurzeit wird die Anzahl der Rechenzentren auf mindestens 13 geschätzt, wovon eines in Santa Clara, Kalifornien, und ein weiteres in Herndon, Virginia, steht. Europäische Surfer werden von Zentren in Zürich und Dublin bedient. Ein Datenpaket einer Anfrage an Google.de verlässt nie das „alte Europa“. Über die Frage, wie viele Server in den verschiedenen Rechenzentren stehen, wird seit Jahren spekuliert. Mal werden 60000, mal über 100 000 Server genannt. Nach eigener Auskunft indexiert Google über acht Milliarden Web-Seiten mit einer Größe von durchschnittlich 10 Kilobyte. Es müssen also 80 Terabyte Daten gespeichert werden.

Wichtiger als die genaue Anzahl der Maschinen und der indexierten Web-Seiten ist der subtile Aufbau dieser über viele Standorte verteilten Architektur. Die Beantwortung einer Suchanfrage an diese Grid-Datenbank läuft in zwei Phasen ab. In der ersten Phase landet die Anfrage bei Googles Index-Servern. Gibt der User beispielsweise computerwoche bei Google ein, so schaut der Index-Server in seinem Register nach, welche von ihm indexierten Seiten dieses Wort beinhalten. Bei einer Anfrage nach computerwoche online verknüpft Google die beiden Begriffe per Boolschen „UND“-Operator. Sodann wird nach Relevanz der Ergebnisse eine Rangfolge erstellt, die später darüber entscheidet, an welcher Stelle die Seite in der Ergebnisliste erscheint. Schon diese Erstellung der Liste läuft nicht nur auf einem einzelnen Rechner ab, sondern verteilt sich über mehrere Maschinen.

Weniger als eine halbe Sekunde

In einem zweiten Schritt kommen die Document-Server zum Tragen. Diese Rechner nehmen die in Schritt eins generierte Liste und extrahieren den aktuellen Titel und die URL der gefundenen Web-Seiten. Sie greifen dazu auf einen Schnappschuss des Webs zu, den die Suchroboter von Google immer wieder aktualisieren. Dieser Google-Cache versucht möglichst aktuell zu bleiben; die Robots durchkämmen das Internet immer wieder neu. Parallel zu den beiden Phasen initiiert Google mindestens zwei andere Prozesse. So wird die Sucheingabe zu einer Rechtschreibkorrektur-Software und zu einem Werbeanzeigen-Server weitergeleitet, der zu den Suchbegriffen passende Inserate generiert, die später am rechten Rand der Ergebnisseite erscheinen.

Sind alle Phasen abgeschlossen, erstellt der Google-Web-Server“ (GWS) eine HTML-Seite und sendet diese an den User zurück. Der Web-Server läuft, genau wie alle anderen Anwendungen, auf einer abgespeckten Linux-Version von Red Hat und ist – trotz einer gewissen Ähnlichkeit mit dem Open-Source-Marktführer „Apache“ – eine Eigenentwicklung aus dem Hause Google. Der gesamte Prozess läuft blitzschnell ab, eine Google-Suchanfrage dauert üblicherweise weniger als eine halbe Sekunde.

 

Google Racks
Moderne Google-Racks

 

An welcher Stelle in der Ergebnisliste eine Seite erscheint, hängt vom Page-Rank-Algorithmus ab. In diesen geht maßgeblich ein, wie oft und vor allem von welchen anderen Web-Seiten aus eine Web-Seite verlinkt ist. Wenn Google etwas über die Qualität der Seite weiß, die einen Link enthält, schließt es daraus auch auf die Qualität der verlinkten Seite. Anzahl und Qualität der fremdgesetzten Links bestimmen also den Rang bei Google.

Die damals an der Stanford University entworfene Strategie der Billighardware bestimmt noch heute Googles IT-Architektur. Sie baut weder auf Oracle-Datenbanken noch auf Sun-Servern auf, und auch die Blade-Technik bleibt außen vor. Google betreibt sein Geschäft auf preiswerten Servern, deren Platzbedarf ein oder zwei Höheneinheiten nicht überschreiten. Die 19-Zoll-No-Name-„Pizzaschachteln“ kauft das Unternehmen oft von der Firma Rackable – und manchmal auch auf dem Gebrauchtmarkt. In jedem dieser Server sitzen ein oder zwei normale x86-PC-Prozessoren und eine oder mehrere IDE-Festplatten. „Im Schnitt kostet ein Google-Server rund 1000 Dollar“, sagt Urs Hoelzle, Vizepräsident der technischen Abteilung bei Google.

Generationsübergreifend verrichten bei Google ältere 533-Megahertz-Intel-Celeron- genauso wie 2,4-Gigahertz-Pentium-Prozessoren ihren Dienst. Meist stehen zwischen 40 und 80 Server in einem Rack. Dort sind die Server über einen 100-Megabit-Ethernet-Switch verbunden, der ein oder zwei 2-Gigabit-Uplinks zu den anderen Servern hat. Ein Suchbefehl wird nicht nur von einem Rechner bearbeitet, sondern auf diversen Maschinen parallel abgearbeitet.

Der Absturz ist einkalkuliert

Die Performance des einzelnen Rechners ist damit weniger relevant als die schnelle Verbindung unter den Maschinen. Langsamere CPUs werden durch schnellere im Netzwerk ausgeglichen. Die hohe Ausfallwahrscheinlichkeit der preiswerten Hardwarekomponenten egalisiert Google durch eine konsequente Replikation aller Dienste. Fallen Festplatten oder gar ganze Racks aus, so übernimmt ein gespiegelter Server die Aufgaben.

Das intern programmierte „Google File System“ (GFS) rechnet stets mit einem solchen Absturz und ist so implementiert, dass es bei Problemen sofort auf eine andere Ressource zugreift. Dazu speichert es jedes Datenbit auf drei Rechnern, die immer in verschiedenen Racks sitzen müssen.

Ein Server arbeitet bei Google maximal drei Jahre lang, danach wandert er zum Elektro-Recyling. Ältere Rechner sind im Vergleich zu der nachrückenden Generation zu langsam: Sie würden die verteilten Rechenoperationen stark ausbremsen.

Teure Boards sind überflüssig

Auch in Zukunft will Google auf preisgünstige Hardware setzen. Multiprozessoren-Motherboards würden zwar mit einer besseren Performanz aufwarten, die Softwareparallelisierung läuft bei Google aber so zügig und einwandfrei, dass sich der hohe Preis für solche Motherboards nicht lohnen würde. Ein brandneuer Highend-Multiprozessor-Server würde dreimal so viel wie ein vergleichbares zusammengestelltes Rack kosten. Die wichtigste Suchmaschine der Welt wird also weiterhin mit Billighardware arbeiten.


Ergänzung am 05.07.2012

Google regelt mittlerweile den Verkehr zwischen seinen Datencentern auf besondere Weise. Die Router und Switches sind über ein Software-defined Network (SDN (Wikipedia)) verbunden, das mit OpenFlow-Protokoll (Open Flow (Wikipedia)) gesteuert wird. Das macht Google unabhängig von der Firmware, die auf den Routern und Switches läuft und erlaubt dem Konzern, den Datenfluss besser zu steuern und verschiedenen Prioritäten für verschiedene Dienste (Mails, Video, …) einzuräumen.