Kategorien
Elektronische Kultur

Keep It Simple and Stupid

telepolis v. 30.01.2003

Auch erschienen in „Medien und Erziehung“ 3/2003

Keep It Simple and Stupid

Die allermeisten Seiten im Netz sind für Behinderte schlecht nutzbar. Die Bundesregierung und das W3C wollen dies ändern. Folgt die Wirtschaft?

Wem ist es noch nicht passiert, dass er beim Navigieren den falschen Verweis geklickt hat, weil die Links zu eng gesetzt waren? Das bunte Gewimmel auf Webseiten irritiert oft schon den Otto-Normal-Surfer mächtig. Für Menschen mit einer körperlichen oder geistigen Behinderung ist die Navigation auf den meisten Seiten dagegen eine verzwickte Angelegenheit, wenn nicht gar eine Zumutung.

Die zahlreichen Initiativen wie „Schulen ans Netz“, aber auch die staatlichen Anstrengungen des elektronisch gestützten Bürgerservice, wie e-voting und Ausweisverlängerung drohen ins Leere zu laufen, wenn behinderte oder alte Bürger vor technischen Barrieren stehen, welche die Wahrnehmung ihrer Bürgerrechte und -pflichten zum virtuellen Abenteuer macht.

braille_tastatur
braille tastatur

 

Seit Juni 2002 ist nun eine Verordnung in Kraft, das alle staatlichen Einrichtungen und Behörden dazu verpflichtet bis 2005 ihre alten Internet-Auftritte so zu gestalten, dass sich wirklich jedermann darin zurecht findet. Mehr noch – gänzlich neu erstellte Amtsseiten müssen ab sofort sauber programmiert werden. Das Werk mit dem holprigen Namen „Barrierefreie Informationstechnik-Verordnung“ ( BITV) legt fest, ab wann sich eine Homepage „barrierefrei“ nennen darf und orientiert sich dabei an den Richtlinien der WAI (Web Accessibility Initiative).

Schnörkelloses HTML

Diese Arbeitsgruppe des World Wide Web Consortiums (W3C) bemüht sich um die technische Funktionalität und Universalität des Internet. Mit den Richtlinien liegen seit geraumer Zeit genaue Spezifikationen vor, wie der html-Code einer Webseite barrierefrei gestaltet werden kann – nur richten tut sich kaum ein Unternehmen danach. Der Bundestag hatte deshalb im ebenfalls im letzten Jahr verabschiedeten Behindertengleichstellungsgesetz ein Schmankerl für die gebeutelte deutsche Internet-Ökonomie parat. Zukünftig wolle man darauf hinwirken, dass auch „gewerbsmäßige Anbieter von Internetseiten“ diese barrierefrei gestalten. Keine schlechte, aber wohl diffuse Idee in Zeiten des Masseneinsatzes von Flash und Java-Skript.

Die konkrete Struktur einer barrierefreien Homepage baut auf schnörkelloses HTML. KISS heisst die Aufforderung: Keep It Simple and Stupid. Mouse-over Aktionen zum Anheben oder Absenken von Buttons sind nach den Regeln der WAI ebenso zu unterlassen wie Imagemaps ohne redundanten Textlink. Zu einem Bild gehört stets ein „alt“-tag in den Code, in welchem der Inhalt des Bildes beschrieben wird. Ein Problem: Software wie Microsofts Frontpage blähen selbst kleine Homepages schon ohne aktive Inhalte zu wahren Code-Monstern auf.

Die WAI hat eine Checkliste herausgegeben, anhand derer man überprüfen kann, wie barrierefreies HTML programmiert sein kann. Tools wie Bobby prüfen, ob die eigenen Webseiten behindertengerecht sind. Das WAI-Regelwerk zielt vor allem auf Surf-Erleichterungen für sehbehinderte und blinde Mitbürger. Diese nutzen zumeist einen Screenreader wie beispielsweise JAWS, der die Informationen der Webseite aus dem HTML-Code extrahiert und über den Lautsprecher ausgibt. Seiten, die vor Java-Script strotzen, sind für Blinde daher wertlos. Aber auch nur Sehbehinderte stehen vor großen Problemen beim Surfen, wie der online verfügbare Sehbehinderungs-Simulator beeindruckend zeigt.

Nur wenige Webseiten sind bislang behindertengerecht gestaltet

Wolfgang Schneider von der Schweizerischen Stiftung zur behindertengerechten Technologienutzung weist darauf hin, dass die meisten Behinderungen mit einer Mobilitätseinschränkung einher gehen. „Das Internet ist daher nicht nur Informationsquelle Nummer Eins, sondern gibt mir auch die Möglichkeit, Einkäufe online zu erledigen. Und alles, was ich von zu Hause tun kann, bedeutet einen Mehrgewinn an Selbstständigkeit.“ Fest steht bislang, dass eine einfach zu handhabende und logisch aufgebaute Navigation nicht nur für Blinde, sondern für alle Besucher einer Webseite ein Gewinn, zudem weniger pflegeintensiv ist.

Rund acht Prozent der Bundesbürger sind bei den Versorgungsämtern als schwerbehindert gemeldet. Das diese nicht nur Bürger mit gleichen Rechten, sondern auch Kunden sind, darauf stößt der e-commerce erst langsam. Nach Ansicht von Detlef Girke vom gemeinnützigen Projekt BIK (Barrierefrei Informieren und Kommunizieren) sind „nur zwischen fünf und zehn Prozent der deutschen Webseiten so programmiert, dass man das Gefühl hat, dass sich dort ein Mensch darüber Gedanken gemacht hat, ob eventuell auch mal ein behinderter Mitbürger vorbei gesurft kommt.“

Selbst in einem für Behinderte sensiblen Bereich wie dem Gesundheitswesen sind über 80 Prozent der Informationsangebote nicht barrierefrei. Weniger Achtlosigkeit als vielmehr technische Probleme hielten die Unternehmen aber von behindertengerechten Design ab. Oft, so Girke, macht die hinter den Seiten liegende Datenbank ein barrierefreien Auftritt unmöglich. Die Lösung liegt oft nur in einem kompletten Umprogrammierung der Seiten und der Datenbank – ein Schritt, den die meisten Unternehmen aus Kostengründen scheuen.

Mittlerweile nimmt sich auch die EU der benachteiligten Menschen im Informationszeitalter an. Sie rief 2003 zum Jahr der Menschen mit Behinderungen aus. Das Thema „Barrierefreiheit“ ist ein Schwerpunkt auf der zugehörigen Agenda.

Kategorien
Elektronische Kultur Reisen

Die sozialistischen Staaten und das Internet

Frankfurter Allgemeine Zeitung v. 28.01.2003

Gehemmter Cyber-Sozialismus

Wie passen sozialistische Werte und die elektronische Modernisierung des Staates zusammen? Die sozialistischen Staaten streiten um den Umgang mit dem Internet.

Nha Trang ist keine Schönheit, Hotelbauten verschandeln die Strandpromenade der rund eine viertel Million Einwohner zählenden Stadt an der Ostküste von Zentralvietnam. Durch die breiten Straßen knattern unzählige Mopeds, zunehmend auch Autos und immer weniger Fahrräder. In den gläsernen Hotels begegnen sich junge Unternehmer und Parteifunktionäre, in den Straßen hängen neben Coca Cola-Schildern vergilbte Plakate, die an Volksgesundheit und sozialistische Tugenden erinnern. Auf kaum einen anderen Bereich wirkt sich die Gemengelage aus Marktwirtschaft und Sozialismus aber so offensichtlich aus wie auf die Telekommunikationspolitik des Landes. Das Internet soll den ökonomischen Aufschwung bringen, allerdings nicht die als degeneriert erachteten westlichen Werte. Mit diesem Spagat zwischen Zensur und telekommunikativ angeregten Wirtschaftswachstum steht Vietnam nicht alleine.

Erst seit Ende 1997 ist das Land an das Internet angeschlossen, wobei der gesamte Datenverkehr über zwei Server läuft, die in Hanoi und Ho Chi Minh Stadt, dem ehemaligen Saigon, stehen. Diese Zentralisierung ist kein Zufall, ermöglicht sie doch die effektive Kontrolle des Datenflusses. Nur die Vietnam Data Communications (VDC), eine 100prozentige Tochter der staatlichen Telekommunikationsgesellschaft VNPT (Vietnam Post & Telecommunications Corporation) ist in Besitz einer Lizenz anderen Firmen den Zugang zum Internet zu ermöglichen.

Strassenschild ins Nha Trang
Straßenschild ins Nha Trang

Zur Zeit verfügt das Land über genau vier solcher Internet Service Provider. Diese führen ihre Betriebe unter restriktiven Bedingungen. Sie müssen dafür sorgen, dass bestimmte Adressen im ausländischen Internet aus Vietnam heraus nicht zu erreichen sind. Dies dient zum einen der Sperrung von Websites vietnamesischer Dissidenten, zum anderen soll so der weiteren „Indoktrination der Bevölkerung“ Einhalt geboten werden. Nach Angaben der Organisation „Reporter ohne Grenzen“ werden rund 2000 Webseiten blockiert.

Eine der Homepages, die ganz oben auf der Liste der VDC steht, ist die der „Allianz Freies Vietnam“. Die Organisation von Exil-Vietnamesen setzt sich für die Demokratisierung des Heimatlandes ein und bemüht sich unter anderem den Informationsfluss aufrecht zu erhalten. „Politische Nachrichten und kritische Stimmen aus Vietnam werden von uns gesammelt und wieder ins Land zurück geschickt, um so Informationssperren und Zensur der Regierung zu umgehen“, erklärt H. Tran, außenpolitischer Sprecher der Organisation in Deutschland. Das Internet biete hierfür ideale Bedingungen, und mit dem anwachsenden Datenaufkommen wird die Kontrolle der Inhalte immer schwieriger. An den zwei Gateways ins Ausland ist seinen Aussagen nach eine Schnüffelsoftware installiert, die einkommende und ausgehende elektronischen Briefe auf verdächtige Inhalte überprüft.

Diktaturen und andere Regierungen ohne demokratische Basis haben seit jeher ein gespaltenes Verhältnis zum freien Informationsfluss. So wird im benachbarten China der Zugang ins Web noch restriktiver gehalten. Wer ins Internet will, muss seinen Anschluss an die weite Welt bei gleich mehreren staatlichen Stellen registrieren lassen. In den Großstädten florieren legale und und vor allem illegale Internet-Cafes. Aber auch dort sind Botschaften aus und in die weite Welt nicht gewährleistet, unterliegt doch das einzige Gateway ins Ausland der Kontrolle des chinesischen Postministeriums. Je nach politischer Großwetterlage und Gutdünken der Parteiführer sind Seiten der britischen BBC oder der Nachrichtenagentur Reuters zuweilen erreichbar, zuweilen gesperrt.

Auch Länder wie der Iran, Yemen und Saudi-Arabien suchen die negativen Aspekte des Internet von seinen Bürgern fernzuhalten. Speziell eingesetzte Gremien legen in Abständen fest, welche Seiten als „unmoralisch“ gelten oder aber die politischen und religiösen Werte des Landes verletzen. Ländern wie Libyen und Irak gähnen gar als schwarze Löcher im Netzraum – in ihnen existiert für die Öffentlichkeit kein Zugang zum Internet.

Die IuK-Politik dieser Länder gleicht sich: Man ist um die Hegemonie seiner Informationspolitik bemüht, weiß aber zugleich, dass die ökonomischen Reformen vom Wachstum des Technologiesektors abhängig sind. Aber: Das Informationsmonopol ist unter den Bedingungen der IuK-unterstützen Marktwirtschaft kaum zu halten. Die Begriffe „nationale Sicherheit“ und „wirtschaftliche Internationalisierung“ stehen für diese Quadratur des Kreises.

Um dennoch Wachstumsschübe durch Datenaustausch zu gewährleisten setzen Alleinherrscher und Parteiführer auf Kontrolle auf drei Ebenen: Zum einen unterliegt der wachsende Telekommunikationsmarkt staatlicher Aufsicht, zum anderen wird der Datenaustausch innerhalb des Landes und vor allem mit dem Ausland überwacht. Als drittes Standbein setzen einige Regimes zudem noch auf die Überwachung der Internet-Nutzer. Alle diese Maßnahmen drohen aber entweder am technischen oder personellen Mangel zu scheitern.

Im Westen hofft man noch immer auf das umfassende Demokratisierungspotential des Internet, einem Medium, welches nicht nur einseitige Kommunikation vom Sender zum Empfänger ermöglicht, sondern in welchem jeder zum Sender werden kann. Aber die Theorie der „Demokratisierung durch die Steckdose“ funktioniert nur, wenn Alphabetisierung und technische Infrastruktur gleichermaßen ausgebaut sind. In China besitzen aber nicht einmal 8 Prozent der Haushalte einen Telefonanschluss, von einem PC mit Internet-Connection ganz zu schweigen. In Vietnam haben rund 170 Tausend Vietnamesen einen eigenen Zugang zum Netz der Netze, das sind 0,2 Prozent der Bevölkerung. Zum Vergleich: In Deutschland sind 43 Prozent der Bevölkerung über 14 Jahren online.

Selbst bei einem weiterhin rasant prosperierenden IuK-Markt wäre es verfehlt allzu hohe Erwartungen in die freiheitsbringende Kraft des Internet zu setzen. Ob Vietnam, China, Saudi-Arabien oder Kuba: Die Idee, dass jeder Bürger uneingeschränkten Zugriff auf ausländische Informationen hat, kommt für die Lenker und Denker im Staat einer Schreckensvision gleich. Und so übt sich die Politik in einer ständigen „Ja-aber Taktik“. Dazu kommt, dass das Potential der Demokratiebewegungen in diesen Länder im Westen oft überschätzt wird. Ein Großteil der Bürger Vietnam und China steht westlichen Demokratievorstellungen gleichgültig oder skeptisch gegenüber.vietnam12

Unzufriedenheit in der Bevölkerung erregt allenfalls die weit verbreitete Korruption und Behördenwillkür. Damit fordern sie wie die ausländischen Investoren, ohne die der Ausbau der Telekommunikationsnetze nicht zu bewältigen ist, den Rechtsstaat. Ohne Rechtssicherheit wagt sich kein Unternehmen ins Land. Die „sozialistische Marktwirtschaft“ bringt einen neuen, selbstbewussten Mittelstand hervor, der sein Augenmerk weniger auf freie Meinungsäußerung als auf berechenbare und nachvollziehbare Entscheidungen des Staates legt. Der Wunsch nach einer Begrenzung der Kreise bestechlicher Beamter und das aufblühende Geschäftsleben werden zukünftig Hand in Hand gehen. Zugleich wird mit dem verschleppten, aber steten Wachstum der virtuellen Netze die Möglichkeiten der Zensur schrumpfen.

Jörg Auf dem Hövel

 

 

Kategorien
Künstliche Intelligenz

Deep Fritz vs. Vladimir Kramnik

Frankfurter Allgemeine Zeitung v. 08.10.2002

Dummes Verhalten und intelligentes Berechnen

Der Wettkampf von Weltmeister Vladimir Kramnik gegen das Schachprogramm „Deep Fritz“ wirft erneut die Frage nach dem Unterschied zwischen künstlicher und menschlicher Intelligenz auf.

Vom 4. bis 19. Oktober ist es soweit: Der inoffizielle Schachweltmeister Vladimir Kramnik, 27, tritt im Wüstenstaat Bahrain gegen das spielstärkste Schachprogramm der Welt mit Namen „Fritz“ an. Unter Experten gilt die Partie als offen, die Kontrahenten geben sich derweil selbstbewusst. „Kramnik wird die Partie langweilig halten müssen, wenn er eine Chance haben will“, behauptet Frederic Friedel, einer der Entwickler von Fritz. Das Programm gilt als mindestens ebenso stark wie seinerzeit „Deep Blue“, der IBM-Rechner, welcher 1997 gegen Garry Kasparov angetreten war. Weltmeister Kramnik bereitet sich seit einem Jahr auf den Wettkampf vor. Eine seiner Forderungen war, dass er das Programm vorzeitig erhält; ein Umstand, der Friedel Bauchschmerzen bereitet: „Das ist so, als ob ich vor einer anstehenden Debatte mit ihnen einen Klon ihrer Person bekomme. Nach kurzer Zeit weiß ich genau, welche Argumente sie brillant widerlegen und bei welchen sie Schwächen aufweisen.“

Seit Kasparov das Match gegen Deep Blue verloren hat ist es zu keinem Aufeinandertreffen der Potentaten menschlicher und maschineller Intelligenz mehr gekommen. Im Gegensatz zu Deep Blue, der nur für das Spiel gegen Kasparov konzipiert wurde, ist Fritz ein handelsübliches Programm, welches auf jedem PC läuft. In Bahrain tritt die Originalsoftware allerdings nicht auf einem Kaufhausrechner an. Acht Intel-Pentium Prozessoren werden parallel geschaltet und ermöglichen dem dadurch entstehenden „Deep Fritz“ an die 3 Millionen Stellungen in der Sekunde zu vergleichen. Zum Vergleich: Fritz 7 auf einem PC von der Stange berechnet in der gleichen Zeit rund 500 Tausend Stellungen. Deep Blue kam 1997 auf 200 Millionen Positionen. Damit ist das deutsche Programm zwar deutlich langsamer als Deep Blue, seine Algorithmen sind aber ausgefeilter. Die von IBM entwickelte Software war weithin in Silikon gegossen, das Programm musste einfach gehalten werden. Die Entwickler von Fritz testen und modifizieren Programmteile dagegen ständig. Das reicht für den großen Teil der schachspielenden Menschheit vollkommen aus, Fritz ist kaum zu schlagen – nur die rund 500 Schachgroßmeister in der Welt trotzen dieser Rechenkraft noch.

Wie sie das schaffen, bleibt weiterhin ihr Geheimnis. Im Gegensatz zum Rechner, der nach jedem Zug jede mögliche Zukunftsstellung zu bestimmen versucht, gehen die Großmeister offenbar anders vor: Glaubt man ihren Aussagen, sehen sie Schachstellungen eher als Bilder an. Abtauschkonfigurationen, Spielverlagerungen, Entwicklungschancen – das Schachbrett wird zum verinnerlichten Kunstwerk, in welchem komplexe Muster wiedererkannt werden. Trotz der Rechenleistung des Computer sind die Großmeister besser in der Lage Pläne für die ferne Zukunft zu schmieden. So erkennen sie bildhaft, ob eine Spielstellung zu einem Endspiel führt, welches erst in 30 Zügen für sie vorteilhaft ist. Ein Schachprogramm wie Fritz ist dagegen nur in der Lage maximal 14 Halbzüge im voraus zu berechnen, dann wird der Raum der möglichen Stellungen zu groß. Das Problem des Menschen dagegen: In seinen langfristigen Plänen existieren oft kleine Unstimmigkeiten, um nicht zu sagen Fehler. Diese Fehlschlüsse erkennt ein Programm zu 100 Prozent, innerhalb seines Horizontes von 14 Halbzügen entgeht dem Programm keine Chance, keine Gewinnkombination und keine Verteidigungsmöglichkeit. Je komplexer die Partie wird, umso mehr Schwierigkeiten wird Kramnik demnach haben die Übersicht zu behalten, ein Problem, welches Fritz nicht in sich trägt. Für das Programm existiert keine Kategorie wie „kompliziert“, noch kennt es „brillante“ Züge. So wird vermutet, dass Kramnik taktisch interessanten Stellungen aus dem Weg gehen wird.

Wie immer das Treffen der Koryphäen des Schachsport ausgehen wird, die Möglichkeit Künstlicher Intelligenz (KI) ist damit nur am Rande berührt. Das einst hitzig diskutierte Schlagwort KI hat einiges von seiner Aufgeregtheit verloren und viel an Erdung gewonnen: In vielen Bereichen sind Rechner zu Leistungen fähig, die vom Mensch ausgeführt zweifelsohne Intelligenz erfordern. Man denke nur an Landungssysteme für Flugzeuge, Expertensysteme, die dem Arzt als Diagnosehelfer zur Seite stehen oder die wenig bekannten Theorem-Programme, die selbständig mathematische Beweise finden, selbst solche, die bis dahin noch nicht bekannt waren. Ob das als intelligent bezeichnet werden darf, darüber wird seit einem halben Jahrhundert vor allem deshalb gestritten, weil man sich nicht auf eine allgemein gültige Definition von Intelligenz einigen kann.

Bis in die 90er Jahre gingen die Protagonisten der klassischen KI ausgesprochen oder unausgesprochen davon aus: Sobald die künstliche Erzeugung von Höchstleistungen gelungen sei, würden alle anderen Probleme des täglichen Lebens weitgehend lösbar sein. Tatsächlich beschränken sich die Erfolge der KI aber auf gewissermaßen künstliche Problemstellungen. Ein Hochleistungsrechner mit Greifarmen ist nicht in der Lage die Schuhbänder zu einer Schleife zu binden. Das kann jedes Kind lange bevor es mathematische Beweise lernt. Unscharfe Informationen bleiben demnach die Crux der KI.

Fremdsprachenübersetzungen sind ein weiteres gutes Beispiel dafür: Wörterbücher und Grammatikregeln der Sprachen dieser Welt liegen vor, trotzdem sind die Ergebnisse von maschinellen Übersetzungen erbärmlich. Warum? Weil Programme keinen Sinn in den Sätzen erkennen. Bei Menschen läuft die Sinnsuche regelmäßig und vorgeschaltet mit. Eine lausige Handschrift erkennen wir daher, weil wir den Sinn des Satzes nicht nur von seinen Buchstabenkombinationen her angehen.

Frederic Friedel, der Kasparov bei dessen Wettkampf gegen „Deep Blue“ sekundierte, hält seinen Fritz trotz fehlender Intuition und Sinnsuche für geistreich. Das das Programm letztlich nur schnell addieren, subtrahieren und vergleichen kann ist für Friedel kein Zeichen von Stumpfsinn, denn für ihn ist Intelligenz allein an beobachtbares Verhalten geknüpft: „Wenn ein technisches Verhalten ununterscheidbar von menschlichem Verhalten in einer Situation ist, dann spricht alles dafür das auch intelligent zu nennen.“

Fritz selbst beteiligt sich zur Zeit noch nicht an der Diskussion um seinen Verstand. Wenn es für ihn gut läuft in Bahrain, muss er die Prozessoren ohnehin erst spät warm laufen lassen: Seine Eröffnungsbibliothek umfasst zur Zeit rund 2 Millionen Partien, mit etwas Glück zitiert er zunächst nur aus einer ihm bereits bekannten Partie und fängt erst ab dem zwanzigsten Zug zu „denken“ an.

Kategorien
Elektronische Kultur Reisen

Vietnam sucht den Zugang zum Internet

Erschienen auf Spiegel Online v. 28.05.2002

Gehemmter Cyber-Sozialismus

In Vietnam streitet man offiziell um den Umgang mit dem Internet. Wie passen sozialistische Werte und Modernisierung des Staates zusammen?

Nha Trang ist keine Schönheit, Hotelbauten verschandeln die Strandpromenade der rund eine viertel Million Einwohner zählenden Stadt an der Ostküste von Vietnam. Durch die breiten Straßen knattern unzählige Mopeds, zunehmend auch Autos und immer weniger Fahrräder. In den gläsernen Hotels begegnen sich junge Unternehmer und Parteifunktionäre, in den Straßen hängen neben Coca Cola-Schildern vergilbte Plakate, die an Volksgesundheit und sozialistische Tugenden erinnern. Auf kaum einen anderen Bereich wirkt sich die Gemengelage aus Marktwirtschaft und Sozialismus aber so offensichtlich aus wie auf die Telekommunikationspolitik des Landes. Das Internet soll den ökonomischen Aufschwung bringen, allerdings nicht die als degeneriert erachteten westlichen Werte.

Erst seit Ende 1997 ist das Land an das Internet angeschlossen, wobei der gesamte Datenverkehr über zwei Server läuft, die in Hanoi und Ho Chi Minh Stadt, dem ehemaligen Saigon, stehen. Diese Zentralisierung ist kein Zufall, ermöglicht sie doch die effektive Kontrolle des Datenflusses. An den zwei Gateways ins Ausland ist eine Schnüffelsoftware installiert, die einkommenden und ausgehenden elektronische Briefe auf verdächtige Inhalte überprüft.

Nur die Vietnam Data Communications (VDC), eine 100prozentige Tochter der staatlichen Telekommunikationsgesellschaft VNPT (Vietnam Post & Telecommunications Corporation) ist in Besitz einer Lizenz anderen Firmen den Zugang zum Internet zu ermöglichen. Zur Zeit verfügt das Land über genau vier solcher Internet Service Provider, wobei VDC selbst als Provider auftritt. Die Provider führen ihre Betriebe unter restriktiven Bedingungen: Sie müssen dafür sorgen, dass bestimmte Adressen im ausländischen Internet aus Vietnam heraus nicht zu erreichen sind. Dies dient zum einen der Sperrung von Websites vietnamesischer Dissidenten, zum anderen soll so der weiteren Indoktrination der Bevölkerung Einhalt geboten werden. Nach Angaben der Organisation „Reporter ohne Grenzen“ werden rund 2000 Webseiten blockiert.

Eine der Homepages, die ganz oben auf der Liste der VDC steht, ist die der „Allianz Freies Vietnam“. Die Organisation von Exil-Vietnamesen setzt sich für die Demokratisierung des Heimatlandes ein und bemüht sich unter anderem den Informationsfluss aufrecht zu erhalten. „Politische Nachrichten aus Vietnam werden von uns gesammelt und wieder ins Land zurück geschickt“, erklärt H. Tran, außenpolitischer Sprecher der Organisation in Deutschland. Das Internet biete hierfür ideale Bedingungen und mit dem anwachsenden Datenaufkommen würde die Kontrolle der Inhalte immer schwerer.

„Die Regierung in Hanoi hat einfach Angst vor dem Internet“, sagt der Betreiber eines Internet-Cafés in Nha Trang. Die eingängigen Seiten seien zwar nicht erreichbar, aber beispielsweise sei das Angebot an erotischen Seiten so vielfältig, dass eine Sperrung aller betreffenden URLs gar nicht möglich sei. Im Raum stehen acht PCs, darunter sechs ältere mit 300er Prozessoren, aber auch zwei Computer neueren Kaufdatums. „Ein AMD mit über einem Gigahertz“, erklärt der Mann stolz. Vornehmlich Touristen nutzen seinen Service, in Travellerkreisen hat E-Mail die handgeschriebene Postkarte schon länger ersetzt. Immer häufiger sind es aber auch Vietnamesen, welche Kontakt in die Welt pflegen.

Das vietnamesische Politbüro ist genuin um die Hegemonie seiner Informationspolitik besorgt, meint aber zugleich, dass die ökonomischen Reformen vom Wachstum des Technologiesektors abhängig sind. Aber: Das Informationsmonopol ist unter den Bedingungen der IT-unterstützen Marktwirtschaft nicht zu halten. Die Begriffe „nationale Sicherheit“ und „wirtschaftliche Internationalisierung“ stehen für diese Quadratur des Kreises.

Um den Zugang zum Internet zu erleichtern, beschloss die Regierung in Hanoi jüngst eine Senkung der monatlichen Leitungs-Gebühren für Internet-Provider um 25 Prozent. Damit wird auch Privatpersonen der Einstieg ins Web erleichtert. Zur Zeit besitzen rund 170 Tausend Vietnamesen einen eigenen Zugang zum Netz der Netze, das sind 0,2 Prozent der Bevölkerung. Zum Vergleich: In Deutschland sind 43 Prozent der Bevölkerung online.

Weil der eigene Anschluss trotz der Preissenkungen für die allermeisten Vietnamesen noch immer zu teuer ist, boomen in den Großstädten die öffentlichen Zugänge. In der sozialistischen Vorzeige-Metropole Hanoi herrscht mittlerweile der Preiskampf zwischen den verschiedenen Cafés, der Preis für eine Stunde im Netz ist auf umgerechnet rund zwei Euro gefallen, in Ho Chi Minh Stadt liegen die Tarife noch tiefer.

Preiswert hatte auch Le Chi Quang seine Dokumente durchs Netz geschickt. Der 31jährige Computer-Dozent nutzte ein Cyber-Café in Hanoi, um einen ausführlichen Bericht über ein bilaterales Grenzabkommen zwischen der vietnamesischen und chinesischen Regierung zu veröffentlichen. Bei seinem nächsten Besuch stand die Polizei neben dem PC und verhaftete ihn. Le Chi Quang ist kein Einzelfall, Menschenrechtsorganisationen weisen immer wieder darauf hin, dass das vietnamesische Regime nach wie vor äußerst rigide gegen Kritiker vorgeht.

Für die alten Mandarine stellen die bürgerlichen Freiheiten nach wie vor keine Errungenschaft, sondern eine Gefahr für den Zusammenhalt des vietnamesischen Gemeinwesens dar. Neben dem Lust auf Konsum bringt das Internet aber genau diese Ideen der individuellen Rechte in die Städte und Dörfer des Landes. Ungeachtet dessen setzt die Kommunistische Partei weiterhin auf den Ausbau des Telekommunikationsnetzes. Planwirtschaft pur: Bis zum Ende des Jahres sollen zwei weitere Provider Lizenzen erhalten, der jüngst veröffentlichte Fünfjahresplan sieht vor, dass sich die Zahl der Internet-Zugänge versechsfachen, die Zahl der Internet-Nutzer verzehnfachen soll.

 

Kategorien
Künstliche Intelligenz

Rodney Brooks und die Maschinenmenschen

telepolis v. 07.05.2002

Tatsachen über Maschinen, Denkbarkeiten für Menschen

Für Rodney Brooks, den Primus der runderneuerten Künstlichen Intelligenz, funktioniert der Mensch zwar nicht mehr wie ein Computer, aber immerhin (wieder) wie eine Maschine.

„Nimm uns mit, Kapitain, auf die Reise“. Bei amerikanischen Steuermännern heuert man gerne an, sie bieten lockeres Lesevergnügen und unerschütterlichen Techno-Optimismus. Wenn dann auch noch Rodney Brooks ein Werk veröffentlicht, dann muss man zugreifen, schließlich ist der Mann der Reformator einer Disziplin, die trotz ihrer Fehlschläge von einer magischen Aura umgeben ist – der Wissenschaft von der Künstlichen Intelligenz (KI).

Cover
Ende der 80er Jahre zeigte die KI deutliche Anzeichen einer degenerierten Wissenschaft – zu hoch waren die geschürten Erwartungen gewesen menschliche durch elektronische Intelligenz ersetzen zu können. Die enormen Rechenleistungen ermöglichten zwar Erfolge bei Expertensystemen sowie Computern, die Schachweltmeister entnerven konnten. Beim Einsatz in der banalen Alltagswelt der Straßenüberquerungen und Häkelns scheiterten die artifiziellen Knechte aber gründlich. Warum? Dies fragte sich auch Brooks, der seit 1984 im Institut für künstliche Intelligenz am Massachusetts Institute of Technology (MIT) Roboter entwickelte und zunehmend frustriert darüber war, dass die Artefakte immer noch nicht in der Lage waren zügig eine Treppe zu überwinden und zum Einsammeln von ein paar Bauklötzchen Stunden brauchten.

Der verführerische Titel „Menschmaschinen“ ist Zugeständnis an den Markt, was das Werk zunächst interessant macht ist die Beschreibung der Geburtsstunde und Entfaltung der „Neuen KI“. Der damals revolutionäre Grundgedanke von Brooks: Will man intelligente Maschinen bauen, muss die Kopplung zwischen Wahrnehmung und Handlung möglichst eng gestaltet werden. Bis dahin war man davon ausgegangen, dass ein Roboter zunächst über ein inneres Weltmodell verfügen muss bevor er handeln kann. Brooks wollte diese „Kognitions-Box“, die bis dahin jeder für unabdingbar hielt, weglassen. Es entstand die Idee der „Subsumptionsarchitektur“. Damit ist eine Rechner- und Roboterarchitektur gemeint, in der die einzelnen Elementarverhaltennicht mehr in einer Zentraleinheit zusammengefasst werden, sondern unabhängig voneinander agieren. Das Verhalten des Gesamtsystems ergibt sich aus der Kommunikation der Subsysteme miteinander, die gemeinsam für gewisse Situationen bestimmte Interaktionsmuster ausführen. Brooks Ansatz findet seither in der Robotik immer mehr Anhänger.

„Ich war überzeugt – und bin es bis heute -, dass Intelligenzleistungen aus der Interaktion von Wahrnehmung und Handlung entstehen und dass in deren ausgewogener Implementierung auch der Schlüssel zur allgemeinen Intelligenz liegt.“

Allen, Genghis, Herbert – durch das gesamte Buch krabbelt die moderne Roboterforschung, immer unterhaltsam, immer verständlich. Zahlreiche Beispiele aus der Biologie helfen zu verstehen, dass Intelligenz einen realen Körper braucht, der mit der Umwelt interagiert ( Das Geheimnis der Intelligenz liegt nicht im Gehirn). Die klassische KI hatte bis dahin versucht, intelligente Maschinen zu bauen ohne Intelligenz verstanden zu haben und sie später in einer Mischung aus Verzweifelung und Übermut für intelligent erklärt.

Auf der ersten Overhead-Folie auf einem seiner Vorträge stand „THINK BIG“ und Brooks wäre nicht KI-Forscher am MIT, wenn er nicht versuchen würde, die vielfältigen Effekte der Robotertechnik auf das Leben der Menschheit in der Zukunft vorauszusagen. Es mutet seltsam an, dass ausgerechnet Brooks, dem die Probleme des Aufbaus komplexer Verhaltensweisen von Robotern bekannt sind, der Verschmelzung von Mensch und Maschine das Wort redet. Um das zu leisten, schlägt er einen Haken in ein Gebiet, in welchem er kein Experte ist – Nanotechnologie ist das Zauberwort.

Wenn man denn mosern will: An dieser Stelle bricht das Buch in die aus US-amerikanischen KI-Werken bekannten Hälften aus Science und Fiction auseinander. Dies gab schon den Büchern von Marvin Minsky, Hans Moravec und Ray Kurzweil in deutschen Buchhandlungen eine Chance und diskreditierte sie zugleich in der hehren europäischen Wissenschaftsgemeinde. Von der Überspanntheit des alten Dream-Teams ist Brooks weit entfernt, er sieht die Zukunft des Menschen nicht in der Auflösung im Reinraum des vom Fleisch befreiten Denkens. Die künftigen Revolutionen werden sich nach Brooks durch den Einzug von Kleinstmaschinen in den Körper ergeben. Gehörschnecken, Netzhautimplantate und andere elektronische Prothesen werden bald den Körper so vollständig bevölkern, dass die Unterscheidung zwischen Mensch und Maschine obsolet wird.

Aber die Maschinenwerdung ist nach Brooks nicht nur durch technische Evolutionen, sondern auch durch philosophische Erwägungen das Schicksal des homo sapiens. Weil der Körper aus Komponenten zusammengesetzt ist, die nach bestimmten – wenn auch noch nicht vollständig bekannten – Regeln interagieren, sind wir selbst Maschinen. Nachdem die klassische Künstliche Intelligenz die Computermetapher für den Menschen eingeführt hatte, geht Brooks wieder einen Schritt zurück. Dies ist nur folgerichtige Konsequenz seiner Sichtweise von KI, die auf einfachen Basisverhalten aufsetzt. Der Mensch, so Brooks, funktioniert zwar nicht wie ein Computer, aber immerhin wie eine Maschine.

Wenn man trotz aller Einwände aber jubeln will: Der gebürtige Australier stellt die Fragen der Zukunft schon heute – und er hat seine Antworten schon parat. Über die lässt sich streiten, aber genau das will Brooks ja. Ohne den empfindungslosen Impetus der Transhumanisten fordert er zur erneuten Reflexion über den menschlichen Bauplan auf. Und so bietet das Buch einen doppelten Einblick. Zum einen in die Labors einer Wissenschaft, die nach Jahren der Höhenflüge auf den Boden der Tatsachen zurück gekommen ist, zum anderen in die Weltanschauung einer Disziplin, die weiterhin auf dem schmalen Grat zwischen techno-evolutionärer Fortschrittsglauben und inhumaner Überwindung des Menschseins wandelt.
Rodney Brooks: Menschmaschinen. Wie uns die Zukunftstechnologien neu erschaffen. Frankfurt am Main, New York 2002, Campus Verlag, 280 Seiten. ISBN 3-593-36784-X. EUR 24,90

 

Kategorien
Künstliche Intelligenz

Interview mit dem A. Bredenfeld vom AiS, RoboCup

Künstliche Intelligenz, Heft 3/2002 „

„Als Intelligenz würde ich das noch nicht bezeichnen““

Der Organisator der RoboCup German Open und Teamchef der kickenden Fraunhofer Robots, Ansgar Bredenfeld, spricht über die Funktionsweise autonomer Roboter, die Stärken und Schwächen seines Teams und die neuen Regeln beim RoboCup 2002.

Parallel zur Weltmeisterschaft der Fußballprofis in Japan und Korea findet in diesem Jahr eine Meisterschaft der kickenden Roboter statt. Der letzte Test der deutschen Teams unter Wettkampfbedingungen fand im April bei den „RoboCup German Open“ statt. Der Organisator der RoboCup German Open und Teamchef der kickenden Fraunhofer Robots, Dr. Ansgar Bredenfeld, sprach mit der KI über die Funktionsweise autonomer Roboter, die Stärken und Schwächen seines Teams und die neuen Regeln beim RoboCup 2002.

Fußballmeisterschaften der Roboter sind kein Freizeitvergnügen für Studenten mehr. Deutlichstes Zeichen für die Relevanz der Veranstaltungen ist wohl, dass die Deutsche Forschungsgemeinschaft mit einem Schwerpunktprogramm die Wissenschaft vom künstlichen Kicken fördert. Unter dem Titel „Kooperierende Teams mobiler Roboter in dynamischen Umgebungen“ (DFG-Schwerpunkt 1125 „RoboCup“) stehen sechs Millionen Mark für die teilnehmenden Universitäten und Forschungsinstitute zur Verfügung.

Fußball Bot der Middle-Size

KI: Die Roboter des AiS gelten als verhaltensbasierte Systeme. Was ist der Unterschied zum klassischen Ansatz in der Künstlichen Intelligenz?

Im Gegensatz zu einem klassischen Ansatz zur Bewegungskontrolle des Roboters, bei dem Pfade auf der Grundlage eines symbolischen Modells der Welt geplant werden, die dann in Steuerkommandos für die Roboterbewegungen umgesetzt werden, benutzen wir einen verhaltenbasierten Ansatz. Dieser Ansatz zeichnet sich dadurch aus, dass der Roboter direkt auf seinen sensorischen Input reagiert und dann eine geeignete Aktion auswählt. Eine durch eine Sensorinformation ausgelöste Aktion ändert die Lage des Roboters in der Welt, wodurch sich wieder die Sensorinformation ändert. Diese senso-motorische Rückkopplung schließt einen Regelkreis direkt über die Umwelt, deren Veränderung natürlich nicht exakt vorausberechnet werden kann. Schon gar nicht, wenn es sich um eine hochdynamische Umwelt handelt. Durch den Nicht-Determinismus der Umwelt kann es auch zu komplexen Überlagerung von Verhalten kommen, so dass „scheinbar“ ein Gesamtverhalten entsteht, dass der Programmierer so nicht von vornherein für den Roboter vorgesehen hat. Auch kann das Gesamtverhalten des Roboter durchaus bewirken, dass der Betrachter absichtliche Aktionen unterstellt, die so nicht vom Programmierer des Roboters vorgesehen waren. Dann spricht man dem Roboter leicht mehr zu, als in ihm tatsächlich einprogrammiert worden ist.

KI: Vor allem, aber nicht nur Kinder unterliegen diesem Animismus.

Ja. Wir haben bei den Spielen viele Kinder unter den Zuschauern, die enorm an den Robotern interessiert sind. Gerne versuchen sie den Robotern zu zeigen, wo der Ball ist. Unsere Robots sind zum Beispiel so konstruiert, dass sie ständig den Ball fixieren, und wenn sie ihn nicht sehen, dann kreist die Kamera so lange, bis sie in wieder gefunden haben. Wenn ein Ball an ihnen vorbeiläuft, dann folgt die Kamera dem Ball. Das führt bei Kindern offenbar dazu, den Roboter als etwas zumindest kommunikationsfähiges anzusehen.

KI: Sie würden ihre Roboter also nicht als intelligent bezeichnen?

Würde die visuelle Ballverfolgung nur auf dem Bildschirm stattfinden, würde kein Hahn danach krähen. Aber weil das Programm in einem Roboter verkörpert ist, kann diesem Programm leicht mehr unterstellt werden als softwaretechnisch zu rechtfertigen ist. Dabei führen unsere Roboter lediglich in Abhängigkeit des Sensorinputs zielgerichtete Aktionen in koordinierter Weise aus, aber als Intelligenz würde ich das noch nicht bezeichnen.

KI: Warum nutzen Sie zunächst eine PC-Simulation für die Aktionen des Roboters?

Experimente mit realen Robotern sind sehr zeitaufwendig. Wir müssen ins Robotik-Labor gehen, die Roboter vorbereiten und dann schließlich die Experimente durchführen. Die Simulation dagegen kann sehr einfach im Büro am PC durchgeführt werden. Besonders wichtig ist die Simulation dann, wenn das Roboterprogramm lernen soll. Hierfür sind sehr viele Experimente notwendig, die in der Simulation automatisch, z. B. über Nacht, durchgeführt werden können. Wichtig ist dabei natürlich eine möglichst große Realitätsnähe des Simulators, damit die Simulationsergebnisse auch aussagefähig für die Realität sind. Wir haben schon sehr früh angefangen, einen Simulator zu bauen. Mit ihm entwickeln wir die Programme für die späteren Bewegungsabfolgen auf dem Spielfeld. Wenn die Roboter in der Simulation sinnvoll agieren, dann überspielen wir das Programm auf den echten Roboter und gehen aufs Feld. Dort optimieren wir dann die Parameter.

KI: O.k. der Roboter steht auf dem Spielfeld. Wie werden nun die Informationen der verschiedenen Sensoren koordiniert?

Ein einfaches Beispiel: Wenn ein Hindernis von den Infrarot-Sensoren erkannt wird, löst dies in der Regel eine Ausweichbewegung des Roboters aus. Wenn allerdings beim Roboterfußball als Hindernis der rote Ball erkannt wird, muss die Information der Infrarot-Sensoren anders interpretiert werden. An dieser Stelle wird die Information von zwei Sensoren – der Kamera und die Infrarotsensoren – zusammen betrachtet und durch die Kombination ergibt sich dann gewissermaßen eine höherwertige Information, die zu einer anderen Bewegungsentscheidung führt.

KI: Welche Sensoren nutzen sie noch, um die Roboter auf dem Spielfeld autonom agieren zu lassen?

An den Rädern zählen wir, wie oft sie sich drehen. Zudem haben wir einen Winkelgeschwindigkeitsmesser mit dem wir die Orientierung auf dem Spielfeld berechnet. Dann haben die Roboter noch Bumper-Sensoren, so dass sie merken, wenn sie irgendwo anstoßen. Im Spiel muss man nämlich zeigen, dass man sich nach einer Kollision entfernt, sonst läuft man Gefahr für ein Foul angezeigt zu werden. Zusätzlich haben unsere Roboter Infrarot-Abstandssensoren direkt nach vorne und nach vorne seitlich im 45 Grad Winkel ausgerichtet sind. Das sind unsere Sensoren zur Hindernisvermeidung, insgesamt also eine minimalere Sensorausstattung im Vergleich beispielsweise zum amtierenden Weltmeister-Team aus Freiburg, das einen Laserscanner benutzt, mit dem der Raum vor dem Roboter sehr fein abgetastet wird.

KI: Der Spieler sieht den Ball und der Ball muss ins Tor. Wie geht er vor?

Erst einmal muss er wissen, wo er ungefähr steht. Im Prinzip versucht er dann unter Hindernisvermeidung den Ball ins Tor zu bringen. Je nachdem wo er steht, wo die Gegner stehen, wo das gegnerische Tor steht und wo der Ball ist, ergeben sich da unterschiedlichste Spielsituationen. Diese unterschiedlichen Situationen werden erkannt und aktivieren gewisse Grundverhalten. Wenn der Roboter hinter dem Ball steht, dann muss er beispielsweise erst vor den Ball fahren, um ein Tor zu schießen. Wenn er den Ball vor dem eigenen Tor sieht, dann springt ein Verhalten an, welches den Schuss eines Eigentores vermeidet. Oder: Wenn das gegnerische Tor und der Ball in einer Linie sind, dann gibt es ein Verhalten, welches instruiert „Beschleunigen, dann schießen“. Es existieren also viele kleine Elementarverhalten, welche eine bestimmten Aufgabe erfüllen sollen und den Motor entsprechen ansteuern. Die kann man isoliert betrachten, programmieren und testen. Sie sind gewissermaßen unsere Bausteine, unser Vokabular, um komplexere Verhalten zu komponieren.

KI: Wie lassen sich die unterschiedlichen Elementarverhalten kombinieren?

Eine rein sequentielle Ausführung der Grundverhalten würde zu roboterhaften, sehr abgehackten Bewegungen führen. Das liegt am abrupten Umschalten zwischen verschiedenen Aktionen. Durch Sensorrauschen kann es hierbei zu Oszillationen zwischen Verhalten kommen, wenn der Roboter sich zum Beispiel nicht zwischen Hindernisvermeidung und Torschuss entscheiden kann. Das ist ein Nachteil einer rein sequentiellen Ausführungen und Umschaltung von Elementarverhalten. Wir gehen deshalb anders vor: Den Elementarverhalten wird eine graduelle Aktivierung zugeordnet, das heißt, wenn die Elementarverhalten parallel laufen, dann ist eines beispielsweise nur zur Hälfte aktiviert, eines ist ganz ausgeschaltet, eines ist vollständig aktiviert. Jedes der Verhalten steuert auf diese Weise einen Teil zum Gesamtverhalten bei.

KI: Und wie viele Elementarverhalten agieren in ihren Robotern?

Die Zahl der Elementarverhalten liegt derzeit deutlich unter 100. Die Kombination von sehr vielen Verhalten stellt hierbei generell ein Problem dar, da unterschiedliche Elementarverhalten zu unterschiedlichen Anteilen miteinander kombiniert werden. Langfristig wünschen wir uns, dass wir mindestens einen Teil der hierfür notwendigen Parameter mit automatisierten Lernverfahren ermitteln können.

KI: Ihre Roboter sind über Funk-LAN miteinander verbunden. Was tauschen die Spieler untereinander aus?

Die relative Lage des Roboters zum Ball, also Abstand und Winkel, wird transparent im Team verteilt. Wenn gestürmt wird, dann kann so der Roboter zum Ball fahren, der am nächsten dran ist. Das macht man im richtigen Fußball ja auch nicht komplett anders. Wir versuchen aber auch, den Roboter so zu programmieren, dass er alleine in der Welt zurecht kommt. Wenn er mit den anderen kommunizieren kann, ist das allerdings ein Vorteil, das Gesamtsystem bricht aber nicht zusammen, wenn die Kommunikation zwischen den Robotern ausfällt, was bei den Turnieren keine Seltenheit ist.

KI: Können aus der Abwehr Pässe nach vorne geschlagen werden?

Das gezielte Passen ist bisher nur selten mal einem Team gelungen. Da gibt es bisher nur Ansätze. Was wir aber schon sehen ist die gezielte Nutzung der Bande für Torschüsse.

KI: Gibt es Taktiken? Stellen Sie Ihre Roboter auf den Gegner ein?

Wir entscheiden beispielsweise je nach Lage, ob wir mit einem oder zwei Stürmern spielen. Diese Taktik ist relativ einfach zu implementieren und zeigt im Spiel schon unerwartet gute Effekte. Was das Positionsspiel angeht, verfahren wir so, dass ein Roboter, wenn er länger den Ball nicht sieht, in die Abwehr oder an eine vorbestimmte Spielfeldposition zurückfährt.

KI: Spielt Antizipation in den Aktionen eine Rolle?

Da haben wir vor zwei Jahren ein interessantes Experiment durchgeführt. Im Simulator haben wir ein Neuronales Netz auf die Information trainiert, ob der simulierte Roboter in nächster Zeit den Ball verlieren wird. Wenn er das merkt, dann kann er eine Aktion ausführen, in unserem Test zum Beispiel den Ball wegschießen. Bei der Weltmeisterschaft in Melbourne haben wir das auch am echten Roboter ausprobiert und es hat sich schon gezeigt, dass er in aussichtlosen Situationen den Ball tatsächlich geschossen hat.

KI: Wie weit lässt sich ihr Team von dem menschlichen Fußballspiel stimulieren? Welche Übertragungsmöglichkeiten gibt es?

Das man aus dem richtigen Fußballspiel Elemente herausgreift, dass kommt bei uns in der Liga eher noch nicht vor. In der Simulationsliga, wo komplette simulierte Fußballmannschaften gegeneinander antreten, da schaut man schon auf Aufstellungen und bedient sich taktischen Wissens aus der Fußballszene.

KI: Können Ihre Roboter lernen?

Ein Lernsystem haben wir zur Zeit noch nicht an Bord, wir arbeiten aber auf der Ebene des Motor-Controllers daran. Je nach Situation reagiert der Roboter auf Fahrkommandos sehr unterschiedlich. Die Gewichtsverteilung auf dem Roboter, die daraus resultierenden Trägheitsmomente, die Reibung der Räder, die Charakteristik der Motoren in verschiedenen Lastsituationen sind Dinge, die man nur schwer kalkulieren kann. Der Roboter soll daher lernen – je nach aktueller Fahrtsituation – durch Über- oder Gegensteuern die gewünschte Geschwindigkeit und Rotation bestmöglichst zu erreichen.

KI: Woran arbeiten sie momentan? Was sind die kommenden Aufgaben?

Beim jetzigen und den zukünftigen RoboCup-Wettbewerben in unserer Liga wird es keine Bande mehr als Spielfeldbegrenzung geben. Darum müssen wir die Bildverarbeitung gründlich überarbeiten. Die Eckfahnen werden in Zukunft farbig markiert sein, daran werden sich die Roboter neben den farbigen Toren orientieren müssen.

KI: Mit vielen Leuten arbeiten sie am Projekt RoboCup?

Der RoboCup ist für uns eine Demonstrationsanwendung, an der wir unsere Forschungsergebnisse auf dem Gebiet der autonomen mobilen Roboter erproben können. Beispielsweise ist unsere Entwicklungsumgebung nicht spezifisch für den RoboCup entworfen worden, sondern lässt sich auch für andere Robotersysteme einsetzen, konkret in einem Projekt, in dem es um den Einsatz von mobilen Robotern in der Produktion geht. Daran arbeiten zur Zeit drei Leute. Im Schnitt arbeiten dann drei bis vier Leute an den Robotern, wobei die immer auch in anderen Bereichen tätig sind.

KI: Mittlerweile genießt der RoboCup eine steigende öffentliche Aufmerksamkeit. Führt das zu mehr Konkurrenzdenken unter den Teams?

Generell ist die Atmosphäre beim RoboCup kooperativ geprägt und stellt den wissenschaftlichen Austausch in den Vordergrund. Parallel zum RoboCup findet so immer ein Symposium statt, auf dem die neuesten Erkenntnisse der Teams vorgestellt werden. Man lässt die anderen Mannschaften durchaus in die eigenen Karten schauen. Unter den Teams bestehen zum Teil sogar gute Kontakte und man hilft sich bei technischen Problemen.

KI: Bleibt in Hinsicht auf den RoboCup nur noch die Frage, wer dieses Mal Weltmeister wird? Wieder das Freiburger Team?

Das ist tatsächlich eine interessante Frage. Da die Bande nicht mehr vorhanden sein wird, fällt ein wichtiger Vorteil für den amtierenden Weltmeister aus Freiburg weg. Diese orientierten sich bislang mithilfe ihrer Laserscanner an den Banden und konnten so ein recht komplettes symbolisches Weltmodell in ihren Robotern mitführen auf dem Spielzüge geplant werden können. Für sie stellt sich die Aufgabe, nur anhand der Tore und Eckfahnen rauszufinden, wo sie genau sind. Bandenschüsse wird es zudem ebenfalls nicht mehr geben. Die Karten werden also neu gemischt und ich halte daher das Turnier für offen.

KI: Um etwas theoretischer zu werden: Die KI-These des Embodiment, der körpergebundenen Intelligenz, hat sich von der Symbolverarbeitung verabschiedet. Wie arbeiten symbolische Planungsprozesse und nicht-symbolischen Reaktionsmechanismen zusammen? Wie passen Verkörperung und Symbolverarbeitung zusammen?

Wir haben momentan zwar noch keine Planungskomponenten auf den Robotern, es gibt aber vielfältige Überlegungen dazu, wie man unsere reaktive verhaltensbasierte Architektur mit deliberativen Planungsprozessen zusammenbringen kann. Das Auffinden und Definieren geeigneter Schnittstellen zwischen diesen beiden Aspekten ist derzeit ein interessantes Forschungsthema.

KI: Ist das von AiS entwickelte „Dual Dynamics“ eine Lösung? Was muss man sich darunter vorstellen?

Dual Dynamics beschreibt eine Architektur von Verhaltensmodulen und deren Zusammenwirken bei der Steuerung eines Roboters. Ein Verhaltensmodul besteht aus zwei Teilen: einem Teil, der berechnet, inwieweit das Verhaltensmodul in der augenblicklichen Situation aktiviert wird und Einfluss auf das Gesamtverhalten des Roboters nehmen soll, und einem anderen Teil, der berechnet, welche Kommandos an die Motoren geschickt werden sollen. Diese Trennung und die zugrundeliegende Mathematik, die aus der Theorie dynamischer Systeme kommt, haben uns bei der Realisierung unserer Verhaltensprogramme sehr geholfen.  Für die Kopplung mit einer Planungskomponente versuchen wir Aktivierungsmuster auszunutzen. Ein Aktivierungsmuster ist immer auch eine Abstraktion einer Sequenz von Situationen, die der Roboter durchläuft. Wenn ich die Sensorinformation komplett auswerten wollte, um darauf eine Planung herzuleiten, dann gerate ich in einen riesigen Parameterraum. Aber die aus der Sensorinformation abgeleitete Aktivierung von bestimmen Elementarverhalten ist ein Abstraktionsschritt, der mir eine Repräsentation von Situationen liefern kann, in denen sich der Roboter gerade befindet. Hierbei wird nicht versucht die Welt im Roboter symbolisch „nachzubauen“, sondern es existiert eine gewisse Roboterbezogene Innensicht. So ist der Roboter – wenn man es denn so formulieren will – in einer gewissen „Stimmung“ ein Tor zu schießen und dabei einem Hindernis auszuweichen. Was das für ein Hindernis ist und wo ich mich auf dem Spielfeld befinde, bleibt dabei relativ egal.

KI: Spielt die Natur eine Vorbildrolle für ihre Arbeit?

Sicher, gerade bei der Verhaltenssteuerung und der Bildverarbeitung. Wir werden sicher nicht ein Bild nehmen und eine komplette Symbolextraktion versuchen, so viel Rechenzeit haben wir auf dem Roboter nicht verfügbar. In der Bildverarbeitung ist es aussichtsreicher nur auf die Merkmale im Bild zu achten, die für die aktuell aktiven Verhalten von Bedeutung sind. In einem Forschungsprojekt des DFG-Schwerpunktprogrammes „RoboCup“ untersuchen wir derzeit biologisch inspirierte Bildverarbeitung und überprüfen unter anderem, inwieweit sich analoge Bildverarbeitungschips in Robotern einsetzen lassen. Auch bei diesen neuartigen Sensoren stand übrigens die Natur Pate.

KI: Wenn Sie schon ihrem Roboter keine Intelligenz zuschreiben wollen, dann ist ein Schachprogramm für Sie erst recht unintelligent?

Das Schachspiel besitzt klar definierte Zustände und Operationen in einer statischen und vollständig bekannten Umgebung. Darauf können existierende Verfahren der Computerprogrammierung relativ einfach angewandt werden. Ganz anders ist dagegen unsere Umgebung im Alltag: wir handeln zum Teil in zeitkritischen Situationen auf grund von unsicheren Sinneseindrücken. Diese „Alltags-Intelligenz“ ist symbolbasierten Computersystemen nur schwer beizubringen und das Schachspiel hat damit natürlich gar nichts zu tun.  Anders verhält es sich hier mit dem RoboCup. Autonome technische Systeme scheitern zwar momentan noch in komplexen dynamischen Umgebungen, aber der RoboCup ist sicher der richtige Weg um schrittweise den Anteil natürlicher Umwelt und die Dynamik zu erhöhen. Wenn in den nächsten Turnieren die Bande fällt, dann wird es schwieriger für die Roboter, aber das ist ja auch Sinn der Übung: Das Szenario soll schrittweise immer realistischer werden. Aber bis zum Roboterteam, das gegen den amtierenden Weltmeister gewinnen kann, oder zum Roboter, der uns in der Fußgängerzone unsere Einkäufe hinterher trägt, ist es sicher noch ein weiter und steiniger Weg.

KI: Was ist denn für Sie das Kernkriterium für Intelligenz?

Intelligenz wäre für mich gegeben, wenn der Roboter von sich aus Voraussagen über das Verhalten seiner Mitspieler und Gegner macht. Das wäre eine beeindruckende Leistung.

Das Interview führte Jörg Auf dem Hövel. Vom ihm erscheint im Herbst 2002 ein Buch unter dem Titel „Abenteuer Künstliche Intelligenz. Auf der Suche nach dem Geist in der Maschine“ im discorsi Verlag.

Kategorien
Elektronische Kultur

Interface 5

Erschienen in telepolis, 17. Oktober 2000

Jenseits von Gut und Böse

Auf der Interface 5 diskutiert man die Politik der Maschine – allerdings ohne Zuhörer

Interessant wird es auf Symposien ja oft erst, wenn die Zuhörer Fragen stellen oder Anmerkungen haben. Das sind die Momente, in welchen sie beweisen können, dass sie den Referenten verstanden haben oder sogar ein Stück schlauer sind als er. Auf der Interface 5 (www.interface5.de), einer medientheoretischen Veranstaltungsreihe der Kulturbehörde der Hansestadt Hamburg, musste keiner mit Verständnis- oder gar kritischen Fragen rechnen – die Experten blieben wieder einmal unter sich. Schade eigentlich, denn hier wurde die „Politik der Maschine“ diskutiert, die „Bilder, Phantasien und Wirklichkeiten der informierten Gesellschaft“. Immerhin stieg das Publikumsinteresse über die drei Tage sukzessiv an: Vier, zehn und fünfzehn zahlende Gäste verbuchte die Kasse.

Einstimmen auf den bunten Nachmittag will Wolfgang Coy, Professor für Informatik an der Humboldt-Universität Berlin, mit seinem Vortrag über „Die virtuelle Logik der Maschine“. Um „Logik“ geht es allerdings nicht, eher um „Imanigation“ und die historische Aufarbeitung der Überzeugungskraft von Bildern und Illustrationen. Von den geometrischen Beweisen eines Pythagoras oder Euklids, über die Seekarten, den mathematischen Beweisen bis hin zu den Schaltpläne der Elektronik; das Bild, so Coy, stand und steht als visuelle Argumentation gleichwertig neben der Schrift und kann durchaus dessen Präzision erreichen. Mit den technischen Instrumenten wie dem Mikroskop oder dem Fernglas eines Galileo Galilei erhielten die Bilder zwar eine neue Beweiskraft, sollten sie doch exakte Abbildungen des Wirklichen sein, zugleich wurde aber immer deutlicher, dass auch das berechnete Bild unscharf ist und der Interpretation bedarf. „Wobei die Trennung von logischer und emotionaler Argumentation oft schwierig ist“, wie Coy annimmt. Wem das im Raum nicht klar ist, dem hilft Coy mit einem Beispiel auf die Sprünge: Hersteller wie Siemens und Phillips verraten den Ärzten, dass ihre kernspintomografischen Geräte nicht nur Falschfarben integrieren, sondern auch vorinterpretieren und extrapolieren. „Kein Tumor hat solch exakte Grenzen wie uns eine Aufnahme weiß machen will.“ Simples Credo: Zum einen ist für Coy die Betrachtung eines Bildes nicht nur in der Kunst der Kontext (kursiv) relevant, zum anderen „kann der Text nicht alles ersetzen“, das Bild bleibt Stütze argumentativer Strukturen medialer Gesellschaften. Pause.

Zurück im Saal steht Friedrich Kittler auf dem Podium. Ist es dessen kaum verständliches Stakkato aus Militär-Metaphern oder die Tatsache, dass er keine eigene Präsenz im WWW besitzt, die ihn zum „führenden Vertreter der deutschen Medientheorie“ macht? Von Beruf ist Friedrich Kittler Professor für Ästhetik und Geschichte der Medien , ebenfalls an der Humboldt-Universität in Berlin. Während seines „Ausblicks in die nächste Computerzukunft“, welcher der Verteufelung von Microsoft und der historisch falschen Heroisierung von Linus Torvald weiter Vorschub leistet, kommt es zu fluchtartigen Abgänge der Zuhörer. Da staunen auch die Kollegen aus der scientific community nicht schlecht. Nach mehr oder weniger gelungenen Metaphern, „…und so stieß das Internet wie ein Falke auf unsere Schreibtische“, ist die Zeit für Tabakgenuss reif.

Lässig geht es Steven Johnson an. Der Autor von Interface Culture (http://www.heise.de/tp/deutsch/inhalt/buch/3453/1.html) ist Fan von Slashdot , der Online Community, die als eine Quelle der Open-Source-Bewegung in den USA gilt. Sein Vortrag „The Internet from below“ kreist um die Frage, ob die Qualität der Kommunikation in Online Communities gehalten werden kann, wenn diese eine gewisse Größe übersteigen. Seine Antwort: Ja – und Slashdot zeigt seiner Ansicht nach auch wie.

Jede Mailing-Liste leide unter zwei Typen: Dem Lurker, der nur mit liest und damit zu wenig mailt und dem Crank, der gerne stänkert und zuviel mailt. „Wir kennen ihn alle, den Typen, der jede Diskussion auf sein Lieblingsthema zurück führt oder einfach nur spam erzeugt“, vermutet Johnson in den Saal hinein. Das Problem: Der Crank gibt die Themen vor. Auch Slashdot kämpfte mit diesen Problemen, bis, ja bis die Quality Filter eingeführt wurden. Zunächst Privileg einer Elite durfte später jeder User jede Mail auf einer Skala von eins bis fünf bewerten.

Johnson kommt in Fahrt: „Denken sie an Norbert Wiener und seine Feedback-Schleifen, das System bewertet sich selbst!“ Heute arbeitet beispielsweise amazon (http://www.amazon.com) mit einem Rating System und Johnsons Ansicht nach wird in Zukunft kaum noch eine Webpage ohne Bewertungssystem arbeiten. „Das ist irgendwann so wie heute eine Website ohne Link.“

Damit ist das Stichwort für den zweiten Tag des Symposions gefallen, dass der „Selbstorganisation“. In der Liste der paradigmatischen Begriffshypes hat es der Begriff der „self organization“ auch bei den Medientheoretikern ganz nach oben und damit bis nach Hamburg geschafft. Hier war die zirkuläre Logik allerdings schon länger bekannt – die Hafenarbeiter dürfte es freuen, dass ihr „Wat mut, dat mut“ es bis in die höchsten Höhen der Elfenbeintürme geschafft hat.

So auch bei Klaus Mainzer, Philosoph, Wissenschaftstheoretiker und Professor. Die Analogie der Evolution, dem Gehirn und den Computernetzen ist Thema seines Vortrags und seine Reise durch zelluläre Automaten, DNA-Computing und genetische Algorithmen ist komplex und schnell. Neben einem Gruß an die Apologeten des gedruckten Buches („…und diejenigen, die das heilige Buch hochhalten, müssen sich vorhalten lassen, dass die Gutenberggalaxis eben auch nur eine sozialisierte Welt ist, zudem nur ein paar 100 Jahre alt, und lineare Wissensvermittlung kann nicht der Weisheit letzter Schluss sein…“) führt er aus, dass die Zukunft des Computers in seiner Verlagerung in intelligente Umgebungen liegt. „Computer sollen den Kopf frei machen, uns nicht überlasten. Auch das Global Networking sollte als technischer Dienst am Nutzer entwickelt werden, nicht als dessen Vergewaltigung.“ Offenbar arbeitet der Mann mit Windows.

Begeisterung ist im Raum zu spüren, als Mainzer die suggestive Ähnlichkeit von Internet und neuronalen Netzen wie dem menschlichen Gehirn visualisiert. Das Netz als Ausstülpung des Hirn, da wartet Super-Intelligenz, aber auch verkopfter Größenwahn eines Marvin Minkys oder Hans Moravecs. Ob die von Mainzer geforderte Besinnung auf alteuropäische Werte angesichts der Hegemonie der US-amerikanische Ideologie des „it´s good because it works“ ausreicht? Und: Diejenigen, die das heilige Gehirn hochhalten, müssen sich vorhalten lassen, dass die Suggestionskraft der „Ausstülpung des Gehirns“ eben auch Ausfluss und Nachwehe des „Decade of the brain“ ist. Leerer Magen und krummer Rücken denken anders.

Womit der Übergang zu Hartmut Böhmes Vortrag gelungen ist, welcher über die historischen Vorläufer der Enträumlichung und Körperlosigkeit im Cyberspace referiert. Schon Emanuel Swedenborg entwarf 1758 in einer Erzählung eine Population, deren Mitglieder ihr Fleisch und Blut abstreifen mussten, um die Schwelle zu einer körperlichen Sphäre zu überschreiten. Akribisch malte Swedenborg das Bild einer himmlischen Gesellschaft, die den Konzepten des heutigen Cyberspace schon sehr nahe kam. Damals war es die aufkeimende Wissenschaft von der Elektrizität, die Phänomene wie den Mesmerismus hervorbrachte. Böhme, Professor für Kulturtheorie, unterstreicht damit anschaulich, dass an jedes neue technische Medium Heilserwartungen und auch transzendente Wünsche gestellt wurden. Böhme: „Noch sind wir meist Schamanen, die ins Netz mit ihrem Namen gehen uns zwischen den Realitäten wandern. Interessant wird es, wenn die Referenzadresse in der Realität fehlt. Dann hat man keine Adresse, man ist eine Adresse.“ Letztlich sei der Cyberspace aber „nur“ die Fortsetzung des Eintauchens in virtuelle Welten, wie sie die Menschen schon aus dem Lesen von Romane und dem Betrachten von Theaterstücken kennen. „Nur haben wir hier eine neue Art der Überwältigungsästhetik, die -multimedial komplex- die gesamten sensorischen Sinne aufgreift. So gesehen wäre der Cyber-Leib die Vollendung unserer Kultur, ihr wahrer Himmel – oder ihre wahre Hölle.“

Was bleibt mehr sagen am Ende der Interface 5? Um in der Sprache der Experten zu bleiben: Im selbstreferentiellen Reigen sich selbst bestätigen und im vorauseilenden Theoretisieren von der Praxis entfernen, dies wird vielleicht von der Kulturbehörde großzügig gesponsort, vom Publikum aber ignoriert. Völlig ausgeblendet blieb die „Stecker-Raus“-Problematik, denn bei fortschreitender Umweltzerstörung wird auch das Novum des ausgehenden Jahrtausend, der Cyberraum, nicht mehr existieren, basiert er doch wie letztlich Alles auf den Ressourcen der natürlichen Umwelt. Dies war nicht Ziel der Interface 5, wäre aber sicherlich für weitere Veranstaltungen dieser Art zu berücksichtigen, sieht man einmal von einer Öffentlichkeitsarbeit ab, die mehr als 30 Bürger in drei Tagen lockt.

 

Kategorien
Elektronische Kultur Künstliche Intelligenz Reisen

Der Pulsschlag des Prozessors

Frankfurter Allgemeine Zeitung v. 21.03.2000

 

Im Silicon Valley ist mit „The Tech“ das Denkmal des Informationszeitalters entstanden

Im Herzen von San José, 60 Kilometer nördlich von San Francisco, hat sich das Silicon Valley ein Denkmal seiner selbst gesetzt. Auf drei Etagen entstand ein Museum der jüngsten Vergangengeit – hier wird das technische Zeitalter gepriesen. Bescheidener Name des Ende 1998 eröffneten Baus: The Tech.

Der Besucher spielt mit all dem, was draußen im Tal täglich erfunden wird. Die Leitung legt Wert auf das interaktive Erfahren, die meisten der Ausstellungsstücke sind bedienbar – ob die virtuelle Bobfahrt durch den Eiskanal, der nachgebaute Reinraum zur Chipherstellung oder das digitale Studio, in dem der Gast sich filmt und später zusammen mit Superman seine Runden fliegt. Spielerisch soll das vor allem junge Publikum den Zugang zur Welt der Prozessoren erhalten, um so Technik-Ängste erst gar nicht entstehen zu lassen.

the techPeter B. Giles, Präsident und CEO des The Tech ist sich seines erzieherischen Auftrags bewußt: „Unser Ziel ist es, nicht nur zu informieren und zu unterhalten, sondern zum Denken anzuregen und den Entdecker in jedem zu wecken. Vor allem wollen wir der jungen Generation ihr Verhältnis zur Technik zu zeigen.“ Die immer intimer werdende Beziehung zwischen Mensch und Maschine sieht Giles positiv. „In Zukunft werden wir anders arbeiten, spielen und lernen“, ahnt er und fügt hinzu, „das wird alle Lebensbereiche betreffen“. Die Techno-Generation soll sich ihre Welt erschaffen, finanziert wird sie dabei von den Urvätern des Fortschritts. Über 500 Firmen aus dem Silicon Valley haben sich an dem 113 Millionen Dollar Projekt beteiligt, die Kosten belaufen sich auf 11 Millionen Dollar jährlich.

Brad Whitworth von Hewlett-Packard folgt der Religion des digitalen Tals. Er ist bei dem Computer-Giganten für den reibungslosen Übergang ins nächste Jahrtausend zuständig. Als „Y2K-Manager“ muß er dafür sorgen, daß auf dem Globus am 1. Januar 2000 alle Hardware-Produkte seiner Firma ohne Murren hochfahren. Ob PCs, Drucker oder komplexe Anlage zur chemischen Analyse; die Produktpalette von HP ist breit und überall kann der Fehlerteufel sitzen. Der heiße Stuhl, auf dem Whitworth sitzt, läßt in äußerlich kalt. „Das Jahr 2000 ist der erste große Test, ob die Technik der Feind oder der Freund der Menschheit ist“, polarisiert Whitworth. Er ist sich schon jetzt sicher, alle Eventualitäten des Elektro-Kollaps ausgeschlossen zu haben und damit erneut zu bestätigen, was für jeden im Tal eh schon feststeht: Die Technik ist der Segen der Zivilisation. Die Silvester-Nacht will Whitworth in aller Ruhe am heimischen Kamin verbringen, sie ist für ihn schon jetzt eine gelöste Aufgabe, nie ein Problem gewesen, schon Vergangenheit. Seine Gedanken richten sich in die nahe Zukunft, deren Basis er jenseits der elektronischen Informationsverarbeitung sieht, in der Biotechnologie. „Das wird der nächste Sprung in der Geschichte der Technologie.“ Whitworth verkörpert den Idealtypus der amerikanischen Info-Elite: Schnell, zielstrebig und immer auf der Suche nach dem nächsten Hype.

Das Kapital in der High-Tech Area war noch nie darum verlegen, ständig lukrativen Chancen wahrzunehmen, sich selbst zu vermehren. Im vergangenen Jahr investierten Risikokapitalgeber 3.3 Milliarden Dollar in junge, aufstrebende Unternehmen, die Hälfte davon in Software- und Internetfirmen. Aber die Realität der sattsam bekannten Bilderbuchkarrieren ist für die Menschen nicht immer rosig. Zwar entstehen noch immer 20 Firmen in der Woche und ebenfalls wöchentlich geht ein Unternehmen aus dem Valley an die Börse, der Preis dafür sind aber enorme Belastungen für alle Beteiligten.

„Sie sind besessen, sie denken nur an ihr zauberhaftes Design oder ihr magisches Produkt“, erinnert sich Miroslaw Malek, Professor für Informatik an der Humboldt-Universität zu Berlin, der einen mehrjährigen Forschungsaufenthalt im Silicon Valley verbrachte. Aus Sicht eines Europäers mutet die Arbeitsethik im High-Tech-Zentrum der USA grotesk an. 12 bis 18 Stunden täglich und das sieben Tage in der Woche sind durchaus üblich, die Firmen sind rund um die Uhr besetzt, der hauseigene Babysitter sorgt für den Nachwuchs, das Fitnesscenter für den Körper. Und wenn es mal wieder zu lange gedauert hat, stehen sogar Räume zum Übernachten bereit. Die Trennung von Arbeit und Privatleben existiert im Tal der Chips nicht, nur so ist es auch zu erklären, daß die Scheidungsrate in der Region bei über 60 Prozent liegt.

Im Museum The Tech
In der Museums-Gallerie herrscht mittlerweile Hochbetrieb. Sechsklässler aus einer Schule in San José haben den Chat-Raum entdeckt und suchen gerade ihre virtuellen Stellvertreter für die Kontaktaufnahme via Internet aus. Eine Comic-Figur wird dazu am Computer mit Charaktereigenschaften ausgestattet und betritt danach den Chat-Raum. Mike hat sich einen rüstungsbewehrten Ritter als alter ego ausgesucht und surft nun fast unschlagbar durch die neue Welt. „Dort kann ich mich mit anderen Jungs treffen und über die neuesten Computer-Spiele reden“, sagt Mike begeistert und wendet sich wieder schnell dem Monitor zu, um im laufenden Dialog nicht den Faden zu verlieren. Auch seine Klassenkameraden spielen begeistert an ihrem Übergang in den Cyberspace. „Die Kinder sind schier verrückt danach“, erklärt Kris Covarrubias vom Museum.

Die fortschreitende Verschmelzung von Technik und Körper wird ein paar Meter weiter verdeutlicht. Ein Ultraschallgerät zaubert den inneren Aufbau der Hand auf einen Bildschirm – die Weichteile, die Knochen und der Fluss des Blutes werden sichtbar. Was sonst werdende Müttern begeistert, ist hier für jeden nachvollziehbar: Der Blick in den Organismus. Im nächsten Raum ist eine Thermokamera unter der Decke installiert. Sie zeigt dem Betrachter die Hitzeausstrahlung des eigenen Körper – freiliegende Teile wie Kopf und Hände strahlen rot, während die gut isolierten Füße im Dunklen bleiben. Über 250 interaktive Ausstellungsstücke bilden in The Tech ein Konglomerat von elektronischen und mechanischen Geräten. Alle zeigen, daß die Schnittstelle zwischen Mensch und Maschine, daß Human-Tech-Interface, immer besser funktioniert. Und die Firmen des Tals arbeiten mit Hochdruck daran, daß diese Affäre noch inniger wird.

Eine Gruppe von Asiaten taucht im Raum auf und bestaunt den perfekt simulierten Operationsroboter, der in der Praxis künstliche Adern in den Patienten einsetzt. „Mehr Geschwindigkeit, weniger Kosten“, stellt ein Mann fest. Was wie die Strategie eines Amphetaminhändlers klingt, ist in Wahrheit die praktizierte Maxime des Tals. Nur wer mit ständig neuen Produkten den Markt sättigt oder erst schafft überlebt. Indes hat sich die enorme Geschwindigkeit der Produktionszyklen vollends auf den Lebensrythmus der Menschen im Tal übertragen.

the tech

John DiMatteo hat sich der Abhängigkeit entzogen. Mit Ruhe genießt er das Essen beim Chinesen und erzählt: „Früher ging mir das genauso wie allen anderen im Silicon Valley. Ich habe am Tag 18 Stunden gearbeitet, am Wochenende Unterlagen mit nach Hause genommen und Nachts von der Arbeit geträumt. Freizeit gab es für mich nicht.“ Früher für den Elektronikkonzern ITT tätig, verdient DiMatteo heute bei Read-Rite, dem weltgrößten Hersteller von Leseköpfen für Festplatten, als Direktor der Unternehmenskommunikation sein Brot. Auch er kennt die Sehnsucht, die den Tellerwäscher zum Millionär werden läßt. „Es sind Visionäre und Träumer, die hier im Tal in einer Garage eine Firma gründen. Und wenn sie beim ersten Mal mit ihrer Idee scheitern, versuchen sie es halt wieder. Es klingt abgedroschen, aber hier kann es jeder schaffen.“ Die Idee, die hinter dieser Kraft steckt, bringt DiMatteo auf eine einfache Formel. „Es geht nur um zwei Dinge: Geld und Macht“, sagt er und bricht dabei den chinesischen Glückskeks auf, der zum Dessert gereicht wird: „Nutze die günstige Gelegenheit um Deine Karriere zu fördern.“

Trotzdem die Region im Ruf der jungen Entrepeneure steht, ist die Zahl der gescheiterten Existenzgründungen hoch. Rund die Hälfte der Unternehmen überleben den Kampf auf dem Markt, der Rest geht nach spätestens einem Jahr pleite. Das „Silicon Valley Network“, eine Non-profit Gesellschaft, welche die wirtschaftliche Entwicklung des Bezirks seit Jahrzehnten beobachtet, zählte im letzten Jahr genau 92 Firmen, deren Entwicklung sie als „kometenhaft“ einstufte. Dies bedeutete gegenüber dem Vorjahr zwar eine Steigerung um knapp 40 Prozent, zugleich nahm aber 1998 die Rate der exportierten Waren seit 1990 das erste Mal ab. Die Asienkrise zeigte hier ebenso Wirkung wie das Verlangen des Computer-Marktes nach immer mehr Leistung zu niedrigeren Preisen. Die soziale Schere klafft zudem im Silicon Valley von Jahr zu Jahr weiter auseinander. Während Manager und Softwareentwickler zwischen 1991 und 1997 eine Einkommensteigerung von 19 Prozent verbuchen konnten, nahm das Einkommen der Arbeiter um 8 Prozent ab. Ein leitender Angestellter verdiente 1997 somit etwa 130 Tausend Dollar, ein Arbeiter nur 34 Tausend Dollar im Jahr. Der Bericht des „Silicon Valley Network“ drückt es vorsichtig aus: „Nicht alle Einwohner partizipieren an der guten Wirtschaftslage.“


The Tech

Vier Themengallerien führen durch The Tech.


(1) Lebenstechnik: Die menschliche Maschine. Medizinische Technologie rettet Leben und erweitert die menschlichen Fähigkeiten.

(2) Innovation: Silicon Valley und seine Revolutionen. Chipherstellung, das eigenen Gesicht als 3-D Animation mit Farblaserausdruck, Design einer Achterbahn mit anschließender Fahrt.

(3) Kommunikation: Globale Verbindungen. Die persönliche Homepage in fünf Minuten im Netz, Cyberchat mit der Welt, das digitale TV-Studio.

(4) Erforschung: Neue Grenzen. Ein steuerbares Unterwassermobil, ein Mondfahrzeug, eine Erdbebensimulation.

Adresse: 201 S. Market Street San Jose, CA, USA Tel: 001 – 408 – 795 – 6100 Fax: 001 – 408 – 279 – 7167 http://www.thetech.org

Silicon Valley

In dem kleinen Tal 60 Kilometer nördlich von San Francisco drängen sich die großen der IT-Branche. Die 7000 Soft- und Hardwarefirmen rekrutieren ihre jungen Mitarbeiter aus den nicht weit entfernten Universitäten Stanford und Berkeley. Intel, der Prozessorgigant, der noch immer fast 80 Prozent der PCs auf dem Globus mit Chips besetzt und Hewlett-Packard, die nach IBM umsatzstärkste Computerfirma der Welt sitzen hier ebenso wie Apple, Sun und Silicon Graphics. Netzwerkhersteller Cisco, 3Com, Bay Networks beherrschen den Markt, die drei größten Datenbankentwickler Oracle, Sybase und Informix haben ebenfalls im Silicon Valley ihren Hauptsitz. Aber auch die Internetfirmen wie Netscape und AOL betreiben vom digitalen Tal aus ihre weltweiten Geschäfte. Das Einkommen liegt um 55 Prozent höher als im Rest der USA, mit weniger als 100 Tausend Dollar im Jahr braucht hier kein Software-Entwickler nach Hause gehen.

Kategorien
Elektronische Kultur

Freie Software soll den Markt revolutionieren

Frankfurter Allgemeine Zeitung v. 21.03.00

Vom Nutzer zum Entwickler

Wird Open Source den Software-Markt revolutionieren?

Ein Anwalt des Software-Herstellers Microsoft bezeichnete den Programmcode des Betriebssystems Windows 95 einmal als „eines der wertvollsten und geheimsten Stücke geistigen Eigentums auf der Welt“. Geistiges Eigentum sichert die Geschäfte, so ist zumindest die landläufige Meinung. Im Source Code (Quelltext) eines Programms steckt die Arbeit der Programmierer, er ist das Kapital einer Firma und sein Geheimnis wird gegen jedweden Kopierversuch gehütet. Seit einiger Zeit aber ist Spannung in die Branche gekommen, denn das eherne Gesetz der verschlossenen Quelltexte ist in Auflösung begriffen. Die Methode des Open Source, der offenen Quelltexte, verspricht bessere Programme bei niedrigeren Kosten. Begriffe wie Linux, Copyleft und natürlich Internet stehen für die erwünschte Revolution auf dem Markt. Was dabei oft vergessen wird: Ohne die Idee der Freien Software wäre Open Source nie zu einer Alternative zur gängigen Distributionsmethode für Computerprogramme geworden.

Der Gedanke hinter Open Source ist einfach: Der in Programmiersprache geschriebene Quelltext wird von seinem Entwickler frei gestellt. Damit liegen Algorithmen, Schnittstellen und verwendete Protokolle offen. Andere Programmierer können den Quelltext begutachten, verändern und –je nach Lizenz- auch weiterverbreiten. Mit dem Internet steht eine Infrastruktur zur schnellen Veränderung und Kommentierung zur Verfügung. Systemadministratoren und Sicherheitsfachleute fordern schon lange die Öffnung der Programme, denn liegen die Quelltexte erst einmal offen, lassen sich Programmfehler, die sogenannten „Bugs“, Hintertüren und trojanische Pferde eher entdecken. Die in regelmässigen Abständen für Unruhe sorgenden Sicherheitslöcher in Browsern, Webservern oder Office-Anwendungen würden mit offenen Quelltexten schnell gestopft. HTML, die Formatierungssprache aus der die Seiten im WWW bestehen, ist ein anschauliches Beispiel für offenen Code. Im Browser kann sich jeder unter dem Menupunkt „View Source“ ansehen, wie eine Webseite aufgebaut ist, sie studieren und das Gelernte auf den eigenen Seiten anwenden.

Die historischen Anfänge von Open Source liegen in den 80er Jahren. Richard Stallmann, ein Programmierer am Massachusetts Institut for Technology (MIT), war unzufrieden mit der Tatsache, dass es nur noch proprietäre Software für Computer gab. Es gab zwar unterschiedliche Betriebssysteme (DOS, Unix), weder durfte man aber Kopien mit anderen Nutzern austauschen, noch erfahren, wie das Programm funktionierte. Gemeinsam mit anderen Programmierern schrieb er aus diesem Grund ein Unix-kompatibles, aber freies Programm. Sinn für Humor beweist schon die Namensgebung des ersten freien Betriebssystems: GNU steht für „GNU is not Unix“, die Auflösung der Abkürzung dreht sich im Kreis und ist damit Kind der zirkulären Logik. Nach und nach enstanden die Systemkomponenten: Der GNU Emacs entwickelte sich schnell zu einem der beliebtesten Editoren auf Unix-Rechnern, der GNU Compiler war als schneller Umsetzer von Programmcode bekannt. 1984 gründete Stallmann die Free Software Foundation, die sich der Verbreitung der Idee von freier Software verschrieben hat. Der begriff der Freien Software besitzt für Stallmann keine Relevanz in Hinblick auf den Preis. Freie Software kann, muss aber nicht gratis sein. Der Schwerpunkt liegt auf dem Wort „Frei“: Jedermann hat das Recht, Freie Software zu verändern und auch die modifizierten Versionen weiter zu verteilen. Um zu verhindern, dass aus freiem und offenem Code proprietäre Software wird, untersteht alle GNU-Produkte dem sogenannten Copyleft. Danach kann jeder das Programm kopieren und verändern, diese Versionen müssen aber ebenfalls Freie Software sein. Der Sinn dieses Vorgehens geht weit über die Verbreitung von freier Software mit offenen Quelltexten hinaus. Mit der GNU-Software sollte sich die Idee einer Gemeinschaft verbreiten, die sich gegenseitig ohne finanzielle Interessen hilft. Stallman gilt heute als einer der striktesten Vertreter dieses Konzepts. Er selbst sagt: „Wenn Softwar e proprietär ist, wenn es einen Eigentümer gibt, der ihren Gebrauch einschränkt, dann können Benutzer keine Gemeinschaft bilden.“

Abseits der politischen Ideenlehre der Free Software Foundation schrieb der Finne Linus Torvald 1991 den lange fehlenden Kern eines GNU-Betriebssytems, den sogenannten Kernel, und nannte das System „Linux“. Für die Bewegung der Freien Software ein zweischneidiges Schwert, denn obwohl nun endlich ein voll funktionstüchtiges, freies Betriebssystem zur Verfügung stand, koppelte sich durch den primär technisch orientierte Torvald die Philosophie von der Software ab. Für Stallmann die grösste denkbare Katastrophe: „Dies System, das wir so entwickelt haben, dass es allein wegen seiner technischen Fähigkeiten, wegen seiner Überlegenheit immer bekannter wird, nutzen nun immer mehr Leute, die sich überhaupt nicht um die Freiheit kümern. Und nicht nur das – sie bekommen überhaupt keine Chance sich darum zu kümmern, weil überhaupt niemand ihnen davon erzählt.“ Schon 1989 sprach ein Teil der Hacker-Gemeinschaft nicht mehr von Free Software, sondern von Open Source. Das war für Stallmann und seine Mitstreiter nur solange kein Problem, wo diese Unterscheidung der Begriffsentwirrung von „frei“ und „gratis“ diente. Die Apologeten der Freien Software werfen Teilen der Open Source Bewegung aber vor, diese Namensgebung vorgenommen zu haben, um sich zukünftig mehr am Markt als an der Gemeinschaft, mehr am Geld als an der Kooperation zu orientieren. So gesehen stellt Open Source auf ihr Potenzial ab, bessere Software zu entwickeln, ohne dabei über die zugrunde liegende Idee von Freiheit, Gemeinschaft und Prinzipien zu sprechen. Freie Software und Open Source beschreiben im Kern die gleiche Kategorie von Software, zielen aber in ihren Aussagen auf andere Werte. Stallmann ist nach wie vor überzeugt, dass Freiheit, und nicht nur Technik bei der Entwicklung von einem Gut, welches mittlerweile massgeblich zum Funktionieren der westlichen Hemissphäre beiträgt, wichtig ist. Moderatere Ansichten in de r Open Source Gemeinde gehen dagegen davon aus, dass kommerzielle Software durchaus zur Verbesserung der Gesamtleistung von Freier Software beitragen kann.

a gnu

Man könnte Stallmanns Beharren auf die reine Lehre als den Starrsinn eines alt gewordenen Blumenkind ansehen, wenn nicht der Erfolg der bisherigen Projekte der Freien Software Bewegung im Recht geben würde. Linux, jüngst acht Jahre alt geworden, läuft inzwischen weltweit auf schätzungsweise zehn Millionen Computern und wird aufgrund seiner durchsichtigen Architektur und der damit verbundenen Anpassungsfähigkeit geschätzt. Die Spezialeffekte für das Film-Epos „Titanic“ wurden unter Linux berechnet. Sendmail ist der Standard für den Transport von E-Mail im Internet, Apache ist der verbreiteste Webserver, etwa 58 Prozent der Internet-Hosts laufen unter dem Programm. Die Übersetzung der Rechnernummer im Netz (62.144.161.32) in einen Namen (www.faz.de) setzt auf Bind (Berkeley Internet Name Server) auf. Tim Berners-Lee hob das WWW aus der Taufe, damit Physiker untereinander neue Erkenntnisse austauschen können. Alle diese Programme wurden unter der Maxime einer Vereinfachung von Kommunikation zwischen Menschen geschrieben und sind noch heute Open Source.

Wo offener Quellcode früher als Spielwiese für Programmierer galt, schickt sich Open Source heute an, zur Software-Entwicklungsmethode des kommenden Jahrhunderts zu werden. Industriegrößen wie Datenbankanbieter Oracle oder die jüngst von Sun aufgekaufte Hamburger Star Division bieten ihre Programme für Linux an. Umsonst. SAP präsentierte auf der diesjährigen Cebit seine Standardsoftware R/3 in einer Linux-Version. Hasso Plattner, Vorstandssprecher der SAP AG, begründete diesen Schritt mit „einer beachtlichen Anzahl von Kundenanfragen“. Bislang liegen die Erfolge von Linux vor allem dort, wo kleine Serverlösung gefragt ist. Darüber hinaus schlüpft es als Lückenbüßer in die Rolle eines Netware- oder Windows NT-Servers, wenn diese nach anfänglich großen Investitionen nicht das leisten, was der Preis beinhalten müsste. Das Web ist voller Geschichten, in denen die Linux-Lösung dann das leistete, was man sich eigentlich von den kommerziellen Systemen versprochen hatte. Dieser Erkenntnis folgen zunehmend kleinere Firmen, die ihre Dienstleistungen, etwa Netzinstallation und Wartung, gern mit Linux-Hilfe erbringen. Während die Einen hier das Aufsteigen einer neuen Ökonomie sehen, dessen Grundlage nicht mehr länger geistiges Eigentum ist, ist Open Source für andere das Software-Business-Modell einer flexiblen Dienstleistungsgesellschaft. Die Gemeinde der Hacker ist gespalten: Hätte Richard Stallmans ideologische Beharrlichkeit Erfolg, würde Freie Software wieder in ihr universitäres Nischendasein der 80er Jahre zurückfallen. Folgt man dagegen einem allzu industriefreundlichen Open Source Modell, ist die „feindliche Übernahme“ durch die Software-Konzern wahrscheinlich.

Ein Beispiel für Idealismus ohne geistiges Eigentum ist KDE: Mit der Windows ähnlichen Benutzer-Oberfläche steht auch dem unerfahrenen PC-Anwender eine Desktop mit Mausbedienung für Linux zur Verfügung. Kalle Dallheimer, Entwickler beim KDE-Projekt und Fachbuchautor, erklärt auf die Frage, ob es ihn nicht stört, dass Distributoren an seinem Programm verdienen, er selbst aber nicht: „Nein. Diese Frage wird sehr oft gestellt, und zwar meistens von Leuten, die die Anhäufung von Geld als den Hauptzweck des Lebens betrachten.“ Diese Art von Lebenseinstellung ist unter den Programmierern Freier Software durchaus nichts ungewöhnliches. Das Ziel ist nicht Geld, sondern -ähnlich wie im Wissenschaftssystem- die Anerkennung der Kollegen. „Die etwas zwei Millionen Codezeilen werden aktiv von mehr als zweihundert Entwicklern aus der ganzen Welt gepflegt. Die gesamte Entwicklung und Verwaltung findet dabei über das Internet statt.“

Ein Beispiel für den kommerziellen Erfolg ist die Suse GmbH, die 1992 von vier Studenten gegründet wurde. Sie brannten Linux auf eine CD-Rom und boten den Versand der Software an, die im Internet noch heute frei zum runterladen auf den heimischen PC liegt. Um Downloadkosten zu sparen und den Support in Anspruch zu nehmen entschieden sich viele Linux-Fans für Suse. Im vergangenen Jahr hat die Firma mit ihren 160 Mitarbeitern 14 Millionen Mark umgesetzt, der Börsengang steht kurz bevor. Eine neuer Zweig entsteht: Nicht an der gratis Software, sondern erst an Beratung und Distribution wird verdient. Dienstleistungen rund um Open Source Technik ist das neue Zauberwort der Branche. Sebastian Hetze von der Linux-Supportfirma Lunetix weiss von den Vorteilen der Open Source Software zu berichten: „Immer weniger Kunden sind bereit eine Black Box zu kaufen, wenn Open Source massgeschneiderte Softwareanpassungen ermöglicht.“ Zusätzlich besteche das Konzept durch „zusätzliche Ressourcen durch kooperative Entwicklung“. Im Klartext: Liegt der Quellcode offen, können Fehler in Programmen schnell behoben werden. Ob die vielen Idealisten, die das Open Source Projekt bis heute aus Spass an der Freude vorangetrieben haben, auch bereit sind ihren Idealismus für Firmen einzusetzen, ist allerdings noch unklar. Wenn hier die nonfiskale Balance zwischen Nehmen und Geben nicht stimmt, dürften sich die Hacker bald aus dem Kreis der Entwickler verabschieden. Ob dann das Netz der gegenseitigen Hilfe noch hält, ist fraglich. Und ohne die unentgeltliche Arbeit der Entwickler können auch die Dienstleister nicht existieren.

Jörg Auf dem Hövel

 

 

Kategorien
Elektronische Kultur

Big-Brother Award

Internet World 1/00

Big–Brother–Awards erstmals in Österreich verliehen

Jörg Auf dem Hövel und Thomas Barth

Die Idee einer jährlichen Auszeichnungen von Personen und Institutionen, die sich um unsauberen Umgang mit Datenschutz und Privatsphäre verdient gemacht haben, stammt von Simon Davies. Der Wahlspruch des Leiters von Privacy International: „We’ll name them and we’ll shame them!“ Nach ersten Verleihungen in den USA und England ist jetzt Österreich seinen Daten–Schmutzfinken zu Leibe gerückt. Neben Innenminister Schlögl und abhör–begeisterten EU–Parlamentariern gehörte auch Microsoft zu den glücklichen Gewinnern des Big–Brother–Awards.

Der Big Brother AwardWer am Nachmittag des Jahrestags des Erscheinens von Orwells „1984“, am malerischen Wiener Donaukanal flanierte, konnte vor dem Szenelokal Flex die Gruppe temperamentvoller Diskutanden kaum überhören. Berge von Computerausdrucken, Briefen und Notizen auf dem Kaffeetisch vor sich hektisch durchwühlend, wurden neugierige Frager ungewohnt barsch abgewiesen. Doch Wiener Charme milderte die Reaktion: „Normalerweise sind wir viel netter, aber jetzt sind wir im Stress wegen der Preisverleihung heute abend… komm doch heute abend um neun!“ Von einer Jurorin so freundlich eingeladen, wollte man die Auswahl der Award–Gekrönten dann nicht weiter stören. Zumal das Flex, das die phonstärkste Anlage Österreichs sein eigen nennt, zur Big–Brother Party mit DJ Hell „Eintritt frei“ versprach. Und so ließ man die Jury in Ruhe ihres Amtes walten, die unter anderem aus Vertretern der „Österreichischen Gesellschaft für Datenschutz“ und dem „Verein zur Wiederherstellung der Bürgerrechte im Informationszeitalter“ bestand.

Am Abend konnte sich selbst die kleine Delegation des Groupware–Projekts Puplic Voice Lab dann beinahe nicht mehr in den überfüllten Konzertsaal hineindrängeln. In diesem amüsierte sich das Publikum und die Veranstalter mit sich selbst, denn die Preisträger glänzten allesamt durch Abwesenheit. Besonders begehrt ist diese Auszeichnung nicht: Sie zerrt jene Personen und Institutionen ans Licht der Öffentlichkeit, die sich am Grundrecht auf Datenschutz in besonders ehrloser Weise vergriffen haben.

Politisch prominentester Preisträger war Österreichs Innenminister Karl Schlögl, der mit dem „Livetime Achievement“ für sein ganzes Lebenswerk belohnt wurde, in dessen Zentrum die Juroren die Überwachung der Bürger des 8–Millionen–Staates sahen. In Schlögls Amtszeit wurden Grundrechte wie Schutz von Privatsphäre und persönlichen Daten oder das Redaktionsgeheimnis wenig geachtet, dafür aber die polizeilichen Befugnisse trotz sinkender Kriminalität kräftig ausgeweitet. Wie es aus dem Innenministerium verlautete, nahm der Minister den Preis „zur Kenntnis“.

Doch nicht nur Prominente, auch politische Hinterbänkler bekamen ihr Fett weg: Acht österreichische Abgeordnete im Europaparlaments erhielten den Big–Brother Award „Politik“ für ihre Zustimmung zu den „Enfopol“–Abhörgesetzen (siehe IW 8/99). In der Award–Rubrik Behörden gewann das Österreichische Statistische Zentralamt mit seinem Plan, bei der Volkszählung im Jahr 2001 die erhobenen Daten mit jenen des Innenministeriums abzugleichen, um dem „gläsernen Bürger“ Orwells etwas näher zu kommen. Die Preise konnten sich sehen lassen: Kleine Plastikroboter wurden –in solide Blumentöpfe einbetoniert– als „Spitzel–Oskars“ stellvertretend von Treuhändern entgegen genommen, die sie den abwesenden Gewinnern tags darauf überreichen sollten.

Eine der zugespitzten Fragen des Abends lautete: „Was ist der Unterschied zwischen einem totalitären und einem autoritären Staat? –Der totalitäre Staat bespitzelt, foltert und ermordet seine Bürger –der autoritäre Staat überlässt viele dieser Tätigkeiten dem privaten Sektor.“ Ganz in diesem Sinne wurden auch Big–Brothers kleine Helfer aus dem Bereich der Wirtschaft mit Preisen bedacht: Die „laufende Publikation von unklaren und veralteten Wirtschafts– und Schuldnerdaten“ brachten der österreichischen Schufa, dem Kreditschutzverband von 1870 den BB–Award im Bereich Business ein. Die Auszeichnung für Schnüffelei in Medien und Kommunikation gewann die Schober Direct Marketing–Agentur, die sich mit ihrer umfangreichen Datensammlung über fünf Millionen Bürger brüstet.

In der Kategorie „Peoples Choice“ obsiegte die österreichische Niederlassung von Microsoft. Bill Gates guter Ruf war jedoch nicht der alleinige Anlass: Geehrt wurde der Versuch des Software–Giganten, LINUX–User durch die illegale Verwendung ihrer persönlichen Daten auszuhorchen. Im Auftrag Microsofts hatte die Unternehmensberatung „G3“ von Österreich aus gegen das norwegische Urheberrechtsgesetz verstoßen. „G3“ filterte bei einem norwegischen LINUXcounter systematisch die österreichischen Mailadressen heraus, ohne sich darum zu kümmern, dass auf der norwegischen Website ausdrücklich darauf hingewiesen wurde, dass die kommerzielle Nutzung ihrer Adressen verboten sei. Die LINUX–Gemeinde wurde dann flächendeckend mit Fragebögen belästigt, mittels welchen ihre Einstellungen zu und ihr Einsatz von LINUX ausgeforscht werden sollte. Gefragt wurde unter anderem, ob LINUX Know How aktiv weitergegeben wurde sowie nach Beruf, Branche und Größe des Arbeitgebers. Erst nach Protesten und Medienberichten stellte Microsoft Österreich diese Praxis schließlich ein, die man wohl als ängstlichen Versuch einer Konkurrenzbeobachtung werten muss. Unklar bleibt, ob die so gewonnene Publicity eher Microsoft oder LINUX nützen wird.

Deutsche Datenschützer haben die Big–Brother Award–Verleihung bislang verschlafen, aber im nächsten Jahr sollte der 26. Oktober im Kalender rot angestrichen werden: Die FoeBuD, der Bielefelder Verein für sozialverträgliche Technikgestaltung, will den Big–Brother Preis auch in Deutschland etablieren. An Anwärtern wird es nicht mangeln, und deutsche Computernutzer werden ihre Nominierungsvorschläge dann wohl an die www.foebud.org senden können. Computerkünstler padeluun kündigte für den Verein an, die Verleihung in Kooperation mit anderen Gruppen zu organisieren: „Wir machen das!“. Thilo Weichert, Vorsitzender der Deutschen Vereinigung für Datenschutz (DVD), sagte eine Beteiligung bereits zu und auch das FIfF (Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung) sowie der Chaos Computer Club werden sich der Aktion vermutlich anschliessen.

Siehe auch

http://www.foebud.org

http://anders-verlag.de/