Kategorien
Elektronische Kultur

RFID in der Warenwelt

Frankfurter Allgemeine Zeitung v. 19.10.2004

Die funkenden Etiketten

Vollkommene Kontrolle über ein Produkt: Handel und Logistik prüfen den Einsatz von RFID-Chips

Der Barcode ist in die Jahre gekommen. Statt Warenmerkmale über einen Scanner einzulesen, sollen künftig die Informationen auf modernere Weise übertragen werden. Dazu werden an Gebinden oder einzelnen Gütern RFID-Chips (Radio Frequency Identification) angebracht, deren Daten von Antennen gelesen werden. Großhandel und Logistikunternehmen testen zur Zeit den Einsatz dieser oft nur wenige Millimeter großen Transistoren. Noch herrscht Skepsis, denn die Kosten für das Implementieren in den Produktionsablauf oder gar in die gesamte Warenkette sind enorm, fehlende Standards erhöhen das Risiko.

In RFID-Centern indes zeigt die IT-Branche den Großkunden die Potentiale der Transponder-Technik auf. Steht die Handelsgüterindustrie vor dem Umbruch? Eines dieser Praxis-Labors betreiben die Chiphersteller Intel und Siemens in Feldkirchen bei München. Um die Praxistauglichkeit der Transponder zu überprüfen, bringen einige der in Frage kommenden Kunden ihre zu etikettierenden Produkte gleich mit ins Labor. „Für uns ein Glücksfall“, sagt Christian Schmidt, Manager für strategische Kundenbeziehungen bei Intel. Aus einem mit Transformatoren enggepackten Karton zieht Schmidt einen der länglichen Spannungswandler heraus. „Wenn wir da einfach nur ein RFID-Tag draufkleben würden, könnte das keine Leseeinheit erkennen.“ Metalle und auch Flüssigkeiten schirmen die Signale ab, es kommt zu Fehlerkennungen. Das Labor zielt auf Großkunden, die entweder ihren internen Produktionsablauf oder mit anderen Unternehmen zusammen eine gesamte Warenkette auf RFID umstellen wollen. Bei den Kunden herrscht Sorge darüber, den Anschluß zu verlieren, Sorge aber auch, daß die Kosten den Nutzen übersteigen. Genaue Angaben darüber, was RFID im Betrieb kostet, sind schwer zu treffen. Den schnellsten „Return of Investment“ erhofft sich der Handel, schließlich sucht er die Kosten für die Smart Labels und die damit verbundene Infrastruktur auf Lieferanten und die produzierende Industrie abzuwälzen. Die Handelsgiganten Wal-Mart und Metro haben ihre wichtigsten Zulieferer schon jetzt verpflichtet, bis 2005 ihre Ware mit Funketiketten auszustatten.rfid chip

Lagerengpässe sollen dann der Vergangenheit angehören, Möglichkeiten der Rückverfolgung, Diebstahlsicherung und Bestandsoptimierung zählen zu den weiteren Vorteilen von RFID. Stecken die Waren in großen Gebinden oder Containern, lohnte bisher die Zerlegung der Ladung nicht, Schwund wurde in Kauf genommen. Fährt dagegen eine Palette mit RFID-Transpondern durch eine Antennenschleuse, soll binnen Sekunden jedes Produkt registriert werden. So die Theorie, in der Praxis hapert es meist noch mit der schnellen und sicheren Erkennung der sogenannten Tags. Die in Europa üblichen Chips funken auf einer Frequenz von 13,56 Megahertz, die dazugehörigen Hand-Lesegeräte können Signale aus maximal 20 Zentimetern empfangen. „Stationäre Antennen kommen auf 60 Zentimeter, und erst die großen, heute nur an Lagereingängen eingesetzten Gate-Antennen erfassen RFID-Etiketten in bis zu 2 Meter Entfernung“, erklärt Gerd vom Bögel vom Fraunhofer-Institut. Sind die Transponder aber von Metall umgeben, dringen die Signale nicht bis zur Antenne durch. Auch Flüssigkeiten bremsen die Übertragung. „Dazu kommt“, ergänzt vom Bögel, „daß zwei Transponder nicht genau aufeinanderliegen dürfen, denn dann kommt es zu Funkkollisionen.“

Im Gegensatz zum Bar- oder auch Strichcode, bei dem eine ganze Serie von Produkten den gleichen Code aufgeklebt bekommt, soll in Zukunft jeder auf dem Globus gefertigte Artikel einer eindeutig identifizierbaren Nummer zugeordnet werden. Egal ob ein deutsches Automobil, ein Turnschuhpaar aus Vietnam oder eine Getränkedose aus Australien – jedes dieser Produkte soll einen individuellen Code erhalten. Um dies zu ermöglichen, ist die RFID-Technik in Zukunft nur in Verbindung mit dem elektronischen Produktcode (EPC) sinnvoll. In der Produktion können durchaus spezielle Tag-Frequenzen und eine interne Identifikationsnummer genutzt werden, sobald aber das etikettierte Produkt das Firmengelände verläßt, muß klar sein, daß Transporteur und Empfänger die RFID-Signale und die Informationen lesen können.

Die Idee für den elektronischen Produktcode entstand 1999 im Massachusetts Institute of Technology (MIT). Der Informationsinhalt des 64 oder 96 Bit langen Codes ist variabel, beinhaltet aber zumindest Rahmendaten wie den Hersteller, die Objektklasse und eine Seriennummer. Die Organisation EPC-Global verwaltet die Produktcodes. Sie bietet eine einheitliche Infrastruktur für die per RFID erhobenen Daten und hat für den neuen Standard schon jetzt die wichtigsten internationalen Unternehmen im Boot. Das als Internet-Domainverwalter bekannte Unternehmen Verisign hat im Auftrag von EPC-Global einen Verzeichnisdienst entwickelt, der sich in seiner Struktur an das aus dem Internet bekannte DNS (Domain Name System) anlehnt. So wie im Internet keine Webadresse doppelt vergeben wird, soll auch diese Datenbank dafür sorgen, daß jeder Produktcode nur einmal in einem RFID-Chip landet.

Mittlerweile dringt EPC-Global auch auf die Standardisierung der unterschiedlichen RFID-Frequenzen und setzt dabei aller Voraussicht nach auf Tags im Ultra-High-Frequenzbereich, den sogenannten UHF-Transpondern. Diese funken im Spektrum zwischen 868 und 956 Megahertz. Ob mit 13,56 MHz oder UHF mit 900 MHz – zunächst wird sich RFID, da sind sich die Fachleute einig, an Fahrzeugen und großen Transportverpackungen durchsetzen.

„Bei der Verfolgung von Ladeeinheiten mit Hilfe von RFID dürfte es innerhalb der nächsten fünf Jahre zu einer nennenswerten Durchdringung kommen“, sagt Winfried Krieger, Professor für Logistik und E-Business an der Fachhochschule Flensburg. Hierbei sei der Vorteil, daß die teuren RFID-Transponder nach Gebrauch zum Lieferanten zurückgesandt werden könnten, um dort aufs neue beschrieben zu werden.

Im RFID-Center von Intel und Siemens sind derweil individuelle Lösungen gefragt. So will ein süddeutscher Hotelwäscheverleih Funk-Tags in Bademäntel und Bettwäsche einweben, um diese besser verwalten zu können. Bisher überstehen die robusten Tags zwar den Waschvorgang, nicht aber die zwölf Tonnen Druck der Wasserpresse. Die Kaufhof AG prüfte jüngst in einem Praxistest ein neues Lagersystem, bei welchem die Fabrikate des Textilherstellers Gerry Weber mit RFID-Tags ausgestattet waren. Der Test verlief, nach Angabe von Gerd vom Bögel vom Fraunhofer-Institut für Mikroelektronische Schaltungen, das den Praxiseinsatz wissenschaftlich begleitete, „für alle Beteiligten sehr zufriedenstellend“. Der Serieneinsatz sei für Anfang 2005 geplant. Noch sind die Tags für den Masseneinsatz viel zu teuer, sie liegen bei rund 50 Cent das Stück. Aber Analystenhäuser und Hersteller übertreffen sich mit Nachrichten, die das schnelle Sinken der Herstellungskosten prognostizieren. Wann also wirklich jeder Frischkäse im Supermarkt und jeder Rasierapparat im Kaufhaus mit einem smarten Chip etikettiert ist, bleibt abzuwarten.

Spätestens wenn die RFID-Etiketten vom Lager in den Verkaufsraum gelangen, stellt sich für Hersteller und Händler die Frage, ob und wie der Endverbraucher an die elektronische Warenkette mit angeschlossen werden soll. Datenschützer sehen – ähnlich wie vor 20 Jahren bei der Einführung des Barcode – hochkontrollierte Welten auf die Gesellschaft zukommen. Sieht man von der Bewegungserfassung des Produkts im Verkaufsraum ab, ist der außerhalb des Ladens funkende Chip das Kernproblem. Bleibt nämlich der RFID-Tag nach dem Einkauf aktiv, kann die gekaufte Ware auch außerhalb des Ladens noch einmal gescannt werden. EPC-Global hat reagiert und in ihren Datenschutzrichtlinien verankert, daß Käufer von RFID-Produkten stets darüber informiert werden sollen, daß sie die Möglichkeit haben, die Tags außer Funktion zu setzen oder sie abzutrennen. Teile der RFID-Branche haben sich diesen Richtlinien bereits angeschlossen.

Kategorien
Künstliche Intelligenz

Gekonnte Einzelaktionen

telepolis, 23.06.2004

Gekonnte Einzelaktionen, aber Probleme mit dem Teamspiel

In München trafen sich die Roboter zu ihrer Fußball-Europameisterschaft

Kickende Roboter bringen Erkenntnisse über die Probleme des Alltags – und jede Menge Spaß in die Wissenschaft. Wer genau hinschaut, dem bleiben die Parallelen zu Rudis Mannen nicht verborgen.

Miro Sot Würfel
Miro Sot Würfel

Seinen weltweiten Erfolg verdankt der Roboter-Fußball genau zwei Umständen. Zum einen ist er Domäne für alle Remote-Control-Nerds, deren Lust am Basteln am ferngesteuerten Objekt mindestens ebenso groß ist wie die Lust am Informatik-Studium. Zum anderen war die Wissenschaft von der „Künstlichen Intelligenz“ (KI) Jahre lang auf der Suche nach einer neuen Spielwiese.

Seit der Geburt der Disziplin galt lange das gekonnte Schachspiel als das Paradebeispiel für die vermeintliche Intelligenz des Computers. Erst in den 90er Jahren sah man ein, dass eine spanische Eröffnung und ein zügiges Endspiel mehr über die Programmierkunst der Entwickler als die Intelligenz der Maschine aussagt. Wichtiger aber noch war, dass den Apologeten der runderneuerten KI das 8×8 Felder große Universum mit seinen äußerst festen Bewegungsregeln zu statisch, gleichsam unnatürlich erschien. Vor Rechenpower strotzende Schachcomputer hatten ihren magischen Reiz verloren.

Bolzende Roboter müssen seither als neues Paradigma der KI herhalten und die Zwerge geben sich redlich Mühe den Ansprüchen ihrer Herren gerecht zu werden: Es geht um möglichst autonomes Bewegen in sich schnell verändernden Umgebungen, mit anderen Worten: Fussi.

Zu ihrer 7. Europameisterschaft trafen nun im Rahmen der Messe Automatica 13 Robot-Teams aus 11 Ländern aufeinander. Die FIRA (Federation of International Robot-Soccer Association) hatte in der Klasse der „Miro-Sot League“ nach München geladen. Hinter der kryptischen Bezeichnung verbergen sich Roboter, die nicht mehr als 7,5 Zentimeter Kantenlänge aufweisen dürfen und auf einem nicht mal tischtennisplattengroßen Feld einen Golfball ins gegnerische Tor dribbeln sollen. Im Gegensatz zur bekannteren „Middle-Size“ League aus dem Robocup sind die Roboter hier kleiner und wendiger.

Nach jeweils souverän absolvierten Vorrunden standen sich im ersten Endspiel der „Middle League“ die Teams der Dortmund Droids und der Ljubljana Dragons vor rund 80 begeisterten Zuschauern gegenüber.

Jeweils fünf kleine Roboter pro Mannschaft spurten auf geschmierten Rollen übers glatte Feld und kommen auf Spitzengeschwindigkeiten von fast 2 m/s. Und die agilen Slowenen dominierten von Anfang an durch kraftvolle Vorstöße das Spiel. Um gleich zu Beginn keine falschen Vorstellungen aufkommen zu lassen: Nach wie bilden gekonnte Einzelaktionen den Hauptteil dieses Sports, Passspiel oder gar Kombinationen sind den Metallkisten nahezu unbekannt. Was aber bei den Dortmundern durchaus zu sehen war, sind schnell Drehungen der Robots, um den Ball so Richtung Tor zu schießen.
DieDortmundDroids
Mannschaftsaufstellung

Die Slowenen pflegten dagegen – den orangenen Ball vor sich her treibend – den direkten Durchbruch zum Tor. Die (in Fußball-Deutschland ja sonst weithin unbekannte) schnelle Überbrückung des Mittelfelds geschah dabei zum Teil so zügig, dass der Ball im Tor landete, bevor der Dortmunder Torwart überhaupt reagieren konnte. Im Fachjargon nennt sich das „Line of Attack“ und diese gedachte Gerade zwischen Roboter, Ball und Tor ist offensichtlich bei den Slowenen brillant implementiert.

Die linke Seite der Dortmunder blieb während des gesamten Spiels stark vernachlässigt, der Linksaußen agiert ähnlich hüftsteif wie anno 1983 der Borusse Werner Dreßel. So bewegten sich Mannschaften und Ball die meiste Zeit in der Hälfte der Dortmunder, die zwangsläufig Tor auf Tor kassieren. Zu allem Unglück fiel in der 2. Halbzeit auch noch die Nummer 13 der Techno-Mannen aus dem Pott zunächst durch Taumel-, später gar durch wilde Kreiselbewegungen auf und musste ausgewechselt werden. Derart geschwächt blieben die Dortmunder der aggressiven Spielweise der Slowenen weiterhin hilflos ausgeliefert. Der Anschlusstreffer zum 8:1 war denn auch ein kullernder Zufallstreffer, das Endergebnis lautete gar 11:2.

Rollen statt Stollen

Was die meisten Zuschauer schon an den kleinen Antennen auf den rollenden Ronaldos erkannten: Die Robots erhalten ihr Bewegungsprofil vom Rechner zugeteilt, der ihnen über eine bidirektionale Funkverbindung Fahrtrichtung und Geschwindigkeit vorschreibt. Eine über dem Spielfeld montierte Kamera (30 frames per second) nimmt die Bewegungen von Ball, eigenen und gegnerischen Robotern auf und sendet sie an den Rechner.
Die erfolgreiche Software der Slowenen zur Bildverarbeitung und Steuerung der Spieler läuft auf einem handelsüblichen Laptop unter Windows 98. Teures Hightech ist auch bei den anderen Teams nicht am Werk, ein Umstand, auf den man durchaus stolz ist. „So können mehr Mannschaften teilnehmen“, sagt einer der Betreuer der Robots aus Dortmund. Ihr Host System läuft auf einem AMD Athlon mit 2,8 GHz und 60 GB Festplatte, allerdings kräftig aufgemöbelt mit 1 GB PC2700 DDR-RAM. Die CCD Digital-Kamera ist über FireWire ans System angeschlossen.

Die Software besteht bei den Teams aus Lösungen, die in Jahre währender Arbeit entwickelt und verbessert wurde. Die Dortmund Droids werden zurzeit von vier Modulen gesteuert: einem Bilderkennungsmodul, einem Modul zur Festlegung der Strategie, einem Kommunikationsmodul und einem Steuerungsmodul, welches sich im RAM der Robots selbst befindet. Diese sind mit 64 Kwords und 16 Kwords Flash RAM ausgestattet.

Mit großen Worten wie „Künstlicher Intelligenz“ ist man bei den Verantwortlichen vorsichtig geworden, denn ob das Verhalten dieser Fußball-Zwerge als intelligent zu bezeichnen ist, hängt von der Definition von Intelligenz ab. Zählt man den Begriff der „Autonomie“ zum Kern von Intelligenz, dann fallen die putzigen Würfel durch das Raster, denn sie agieren keineswegs autonom auf dem Feld, sondern stehen in stetem Kontakt zum Rechner. Ob aber nun das Gesamtsystem aus Robotern und Rechner als intelligent gelten kann, darüber will so recht niemand mehr streiten. Mittlerweile steht die Problemlösung im praktischen und alltäglichen Einsatz im Vordergrund. Ob zur Säuberung der Kanalisation, zur Bombenentschärfung oder als Haushaltsroboter – die KI ist bemüht, Wissenschaft in die Tat umzusetzen. Die Erkenntnisse aus dem Roboter-Fußball können dabei helfen.
Während des laufenden Spiels dürfen Trainer und Betreuer nicht in die Software eingreifen, wohl aber während der Spielunterbrechungen und der Halbzeit. Dann sind durchaus taktische Veränderungen möglich, ein Umstand, der natürlich genutzt wird. So kann beispielsweise die gesamte Mannschaft oder ein einzelner Spieler offensiver eingestellt werden.
Glorreiche Sieben
Auch für das Endspiel in der „Large League“, bei dem sieben Robots in jeder Mannschaft rollen, hatten sich die Ljubljana Dragons qualifiziert. Ganz auf ihre Konditionsstärke setzend, treten die Slowenen mit der gleichen, um zwei Spieler aufgestockten Mannschaft an – never change a winning team. Die eingesetzte Software ist offen sichtlich sehr flexibel: Die zwei weiteren Spieler wurden nach einer kurzen Kalibrierungsphase von einer 1/4 Stunde nahtlos in die Mannschaft integriert.
Elfmeter
Elfmeter!

Der Gegner, die Austro Tech-Kicker von der TU Wien, hatte die Slowenen offenbar gut studiert und setzte ebenfalls auf robuste, schnell ausgeführte Einzelaktionen. Mehrmals rasseln die Gegner leise krachend aufeinander, das Publikum honorierte es freudig, unsicher, ob hier nur die Algorithmen zur Vermeidung von Kollisionen fehlerhaft waren oder bewusst eine härtere Gangart gewählt wurde.
Zunächst gingen die Slowenen 2:0 in Führung, bevor der Sturm der Österreicher ein wahres Feuerwerk technischer Kabinettstückchen zündete. Gerade der zentrale Mann in den offensiven Reihen der Alpenländler erinnert in seiner Abgebrühtheit sehr an den legendären Hans Krankl in seinen besten Zeiten. Dann wechselten die Österreicher kurz vor Ende der ersten Halbzeit aus und brachten einen frisch aufgeladenen Mittelfeld-Regisseur. Dem slowenischen Projektleiter, Prof. Dr. Drago Matko, schwante Böses, nervös schaute er mehrmals zur Uhr, sehnte den Halbzeitpfiff entgegen. Immer wieder gelang es den Österreichern in den Zweikämpfen an der Bande den Ball zu erobern. Kein Wunder, die Austro-Kicker haben in ihre Software Muster aus dem Zweikampf-Verhalten im Eishockey und American Football integriert.
Nach Wiederanpfiff fällt das 3:2 für die Österreicher, die Slowenen nehmen daraufhin ein Time-Out. Ihr Bildverarbeitungssystem hatte mitten im Match angefangen, den Ball für einen ihrer Spieler zu halten. Trotz der Behebung des Fehlers finden die osteuropäischen Robots nicht zurück ins Spiel und kassieren ein Tor nach dem anderen, die Abwehr wirkt phasenweise, als würde Jens Nowotny sie organisieren. In der vierten Minute kommt es zu einer strittigen Szene: Vo einem Prohaska-Robot eher zufällig bedient schiebt der wie entfesselte aufspielende Krankl den orangenen Ball über die Torlinie – nur leider zusammen mit dem Torwart. Foul, das Tor zählt nicht, der Keeper darf bei derartigen Rettungsaktionen nicht behindert werden.
Einige technikaffine Fans schossen immer Fotos mit Blitzlicht, was die Bildverarbeitungssysteme stark irritierte. „No Flashlights“, kam denn auch mehrmals der Ruf des Schiedsrichters. In der 6. Spielminute wurde ein österreichischer Abwehrspieler von einer Art Krampf geschüttelt, „Bänderriss“, diagnostiziert ein Zuschauer fachmännisch. Egal, das slowenische Team geht mit 3:12 gegen „Austro Tech“ unter.

Verärgert oder wirklich enttäuscht ist hier aber niemand. Das „Familientreffen“, wie einer der Teilnehmer es nennt, lebt vom Austausch technischer Kniffe und dem sozialen Miteinander. Die eingesetzte Hardware ist ohnehin bekannt und viele Mannschaften stellen den Quelltext ihrer Steuerungs-Software offen zur Verfügung. Die Human-Techniker kennen sich von diversen Tunieren und da man agile Stellvertreter auf dem Feld hat, werden die Kräfte auch gerne beim allabendlichen Socialising eingesetzt. Nach den Turniertagen sind dann Robots und Betreuer gleichermaßen erschöpft.

Kategorien
Elektronische Kultur

Smarte Chips für die Warenwelt

Morgenwelt, 14.06.2004

Smart Chips für die Warenwelt

Elektronischer Produktcode und die Funkübertragung per Chip werden Logistik und Konsumgüterindustrie verändern. Der technische Aufwand ist enorm – die Privatsphäre der Kunden steht zur Disposition.

Die Idee für den elektronischen Produktcode (EPC) entstand 1999 in der Hightech-Schmiede Amerikas, dem MIT (Massachusetts Institute of Technology). Das Ziel ist der Aufbau eines Systems, das jedem auf dem Globus gefertigten Produkt eine eindeutig identifizierbare Nummer zuordnet. Egal ob ein deutsches Automobil, Turnschuhe aus Vietnam oder eine Getränkedose aus Australien – jedes dieser Produkte soll einen individuellen Code erhalten.
Gespeichert wird dieser Code in einem oft nur wenige Millimeter großen RFID-Chip (Radio Frequency Identification). Dieser, auch Transponder genannt, ist in der Lage ohne Batterie und berührungslos per Funk den Code an entsprechende Lesegeräte zu übertragen. Der Informationsinhalt des 64 oder 96 Bit langen Codes ist variabel, beinhaltet aber zumindest Rahmendaten wie den Hersteller, die Objektklasse und eine Seriennummer.

RFID-CHIP
Die auch „Smart-Tags“ genannten Sender sind so klein, dass sie in Preisetiketten oder sogar im Produkt selbst angebracht werden können. Der Vorteil gegenüber dem heute eingesetzten Barcode liegt auf der Hand: dieser wird per Scanner eingelesen, wozu aber meist Handarbeit notwendig ist. Stecken die Waren in großen Gebinden oder Containern lohnt die Zerlegung der Ladung nicht, Schwund wird in Kauf genommen.
Fährt dagegen eine Palette mit RFID-Transponder durch eine Antennenschleuse, wird binnen Sekunden jedes Produkt registriert. Doch damit sind die technischen Möglichkeiten von RFID und EPC längst nicht ausgeschöpft, in den Vorstellungen der Handelskonzerne entstehen durchstrukturierte und hochkontrollierbare Warenwelten.

Ihr Ziel ist es zu jeder Zeit zu wissen, wo und in welchem Zustand sich jedes Produkt in der Warenkette befindet. Noch sind RFID-Chips mit rund 50 Cent für den Masseneinsatz viel zu teuer, was sich voraussichtlich erst in rund fünf Jahren ändern wird. Zunächst wird sich RFID, da sind sich die Experten einig, an Fahrzeugen und großen Transportverpackungen durchsetzen.

„Bei der Verfolgung von Ladeeinheiten mithilfe von RFID dürfte es innerhalb der nächsten fünf Jahre zu einer nennenswerten Durchdringung kommen“, sagt Winfried Krieger, Professor für Logistik und E-Business an der Fachhochschule Flensburg. Hierbei sei der Vorteil, so Krieger, dass die teuren RFID-Transponder nach Gebrauch zum Lieferanten zurückgesandt werden könnten, um dort erneut beschrieben zu werden.

Auch die Auswirkungen auf die Lagerprozesse seien frappant, meint Krieger. Bei der Anlieferung könne sofort kontrolliert werden, ob die Ware mit der Bestellung übereinstimme, im IT-System sei jederzeit genau vermerkt, welche Produkte sich zu welchem Zeitpunkt an welcher Stelle im Lager befänden und komplexe Kommissionierungsvorgänge würden enorm vereinfacht.

Der zweite Schritt: Die Verbraucher

Erst in einem zweiten Schritt werden sich RFID und das damit zusammen hängende EPC-System auf Artikel- und damit auf Endverbraucherebene durchsetzen. Dann soll die Inventur in Echtzeit möglich sein und der gefürchtete Satz des Verkäufers: „das haben wir gerade nicht auf Lager“ soll der Vergangenheit angehören. Die Haltbarkeit des Frischkäses funkt dieser höchstselbst an den Manager, der diesen dann unter Umständen als Sonderangebot neu positionieren lassen kann.
Manche Pläne gehen noch weiter: Transponder an Medikamenten-Verpackungen sollen dem Patienten zukünftig Einsatzgebiet und Kontraindikationen mitteilen und der Reader in der Waschmaschine wird darauf hinweisen, dass die weißen RFID-bestückten Hemden und die roten Socken besser nicht zusammen gewaschen werden sollten. Dem Endkunden könnten über die Etiketten auch Hinweise auf die korrekte Entsorgung des Produkts gegeben werden. Um alle diese Anwendungen zu realisieren, müsste das RFID aber dauerhaft am oder im Produkt verbleiben und wäre von daher mit geeigneter Hardware immer und für jeden auslesbar.
Die Kaufhof AG prüfte jüngst in einem Praxistest ein neues Lagersystem, bei welchem die Fabrikate des Textilherstellers Gerry Weber mit RFID-Tags ausgestattet waren. Der Test verlief, nach Angabe von Gerd vom Bögel vom Fraunhofer-Institut für Mikroelektronische Schaltungen, das den Praxis-Einsatz wissenschaftlich begleitete, „für alle Beteiligten sehr zufrieden stellend“. Der Serieneinsatz sei für Anfang 2005 geplant, mit Chips, die nur die Identifikation und keine weiteren Produktdaten enthalten. Da die smarten Etiketten zurzeit noch rund 50 Cent pro Stück kosten, würden sie an der Kasse entfernt und zurück in den Prozess gelotst. Über eine interne Datenbank sollen dann neben Kaufhof auch Hersteller, und Spediteur Zugriff auf die Daten erhalten, die den genauen Stand des Warenflusses anzeigen.

Perfekte Kundenbindung

Spätestens wenn die RFID-Etiketten vom Lager in den Verkaufsraum gelangen, stellt sich für Hersteller und Händler die Frage, ob und wie der Endverbraucher an die elektronische Warenkette mit angeschlossen werden soll. Einen ersten Versuch des kundennahen Einsatzes der Antennen-Chips führt die Metro Group durch. Der weltweit fünftgrößte Handelskonzern sieht enormes Potenzial in RFID und evaluiert dies in seinem „Future-Store“ in der Nähe von Duisburg. Waren auf über 4000 Quadratmetern Verkaufsfläche funken hier ihren Daten auf das Display des Einkaufswagens und auch zum Management auf den Schreibtisch.

Mithilfe der Transponder lässt sich auch erkennen, wie lange ein Kunde ein Produkt in der Hand hält und wie oft ein Artikel zurückgestellt wird. Und: Die RFID-Sender sitzen auch in den Einkaufswagen selbst. So kann der Future-Store messen, wie lange ein Käufer im Laden bleibt. Obwohl die damit erhobenen Daten anonym sind, sehen einige Datenschützer schon hier einen weiteren Schritt in Richtung des „gläsernen Kunden“ getan. Damit aber nicht genug: Datenschutzexperten vom FoeBuD (Verein zur Förderung des öffentlichen bewegten und unbewegten Datenverkehrs) fanden im Februar in den Kundenkarten des Future Shops implementierte RFID-Chips.

Damit war ein Horror-Szenario der Privatsphären-Apologeten Realität geworden: Das Einkaufsverhalten jedes Kartenbesitzers lässt sich ohne sein Wissen genau studieren. Denn nicht nur die Produkte selbst funken ihre Identifikation, ihre Beschaffenheit und ihren Standort im Geschäft an die Empfänger, mehr noch, diese Daten lassen sich mit dem dazugehörigen Einkäufer auch verknüpfen. Es hagelte Proteste, die Metro teilte daraufhin mit, das über 10.000 Payback-Kundenkarten ausgetauscht werden können. Metro-Sprecher Albrecht von Truchseß begründete den Rückzug damit, dass das Thema „zu sehr emotionalisiert“ worden sei.

Der Laden der Zukunft

Aber auch Experten, die den Datenschutz nicht für das vorrangige Problem beim Einsatz von RFID halten, geben zu bedenken, dass die Erfassung von Produkt- und Kundenbewegungen im Verkaufsraum für die Marketingabteilungen der Konzerne viel zu reizvoll sind, als dass sie diese Chance vorüberziehen lassen werden. Winfried Krieger nennt dies vorsichtig „den Vorteil der Planungssicherheit, der sich aus den erfassten Informationen ergibt“. Krieger sagt weitere massive Proteste gegen RFID voraus, wenn die betroffenen Firmen ihre RFID-Konzepte für den Endkundenbereich nicht besser öffentlich vermitteln.

Kern des Problems ist der auch außerhalb des Ladens funkende Chip. Bleibt nämlich der RFID-Chip nach dem Einkauf aktiv, kann die gekaufte Ware auch außerhalb des Ladens noch einmal gescannt werden. Das ergibt nicht nur verbesserte Auswahlchancen für Taschendiebe, sondern gibt auch dem benachbarten Kaufhaus die Möglichkeit, nach dem Scanvorgang am Eingang seine Werbung im Verkaufsraum gezielt auf den neuen Kunden abzurichten. „Sie haben Wiener Würstchen erworben? Fehlt Ihnen vielleicht unser Senf dazu?“

Der Future-Store bietet seinen Kunden mittlerweile die Möglichkeit den Chip am Ausgang zu deaktivieren. Doch auch hier entdeckten die Datenschützer einen Pferdefuß: Es wurden nicht alle Daten auf dem Chip gelöscht, die weltweit eindeutige ID blieb erhalten.

Aus den USA kommt jetzt der erste Gesetzesvorschlag, der den Einsatz der RFIDs regeln und die Privatsphäre schützen soll. Die von der demokratischen Abgeordneten Debra Bowen als „Senate Bill 1834“ eingebrachte Vorlage soll für alle Firmen und Behörden gelten, welche die Technologie einsetzen. Der Vorschlag sieht vor, dass die Besucher einer Einrichtung über den Einsatz von RFIDs informiert und diesem ausdrücklich zustimmen müssen. Bei Verlassen eines Ladens müssten die Tags entfernt oder zerstört werden.

Auf kurze Distanz

Noch sind es weniger die Datenschützer, die einem Big-Brother Szenario im Weg stehen, sondern die Physik: Die in Europa üblichen Chips funken auf einer Frequenz von 13,56 Megahertz, die dazugehörigen Hand-Lesegeräte können Signale aus maximal 20 Zentimetern empfangen. „Stationäre Antennen kommen auf 60 Zentimeter und erst die großen, heute nur an Lagereingängen eingesetzten Gate-Antennen erfassen RFID-Etiketten in bis zu 2 Meter Entfernung“, erklärt Gerd vom Bögel vom Fraunhofer Institut. Sind die Transponder aber von Metall umgeben, dringen die Signale nicht bis zur Antenne durch. Auch Flüssigkeiten bremsen die Übertragung. „Dazu kommt“, so vom Bögel, „dass zwei Transponder nicht genau aufeinander liegen dürfen, denn dann kommt es zu Funk-Kollisionen“.

Trotz technischer und sozialer Herausforderungen will die Metro RFID möglichst bald entlang der gesamten Prozesskette einsetzen. Schon ab November 2004 sollen die rund 100 größten Lieferanten ihre Paletten und Transportverpackungen für zehn Zentrallager und 250 Märkte mit RFID-Etiketten versehen. Der US-Handelsgigant Wal-Mart verpflichtete jüngst seine 125 größten Zulieferer zur Implementierung von RFID bis 2005. Die betroffenen Hersteller müssen beachtlich investieren: Wie die Marktforscher von AMR-Research errechneten, ergeben sich für einen Wal-Mart-Lieferanten Kosten zwischen 13 und 23 Millionen US-Dollar bei der Einführung von RFID, wobei die eine Hälfte für die Bereitstellung der Funketiketten und Reader, die andere Hälfte für das Redesign der IT-gestützten Warenkette anfällt.

Ungeheure Datenmengen

Wie genau diese Investitionen auf die Teilnehmer verteilt werden, ist noch unklar, damit aber das „Return on Investment“ möglichst flink erfolgt nehmen Analysten und Logistik-Experten die Lieferanten ins Gebet. „Mit RFID fallen ungeheure Datenmengen an und die meisten Unternehmen wissen noch gar nicht, wie sie diese Daten in verwertbare Informationen transferieren“, bemerkt James Weir vom Analystenhaus IDC.
Mittlerweile liest sich die Allianz der RFID-Unterstützer wie das „Who is Who“ der Global-Player. Hardware-Hersteller wie Texas Instruments, Handelskonzerne, Speditionen und Händler zeigen sich gleichermaßen überzeugt, dass die funkenden Chips Logistik und Warenbestandshaltung revolutionieren werden. Um den Masseneinsatz zu ermöglichen will Chiphersteller Infineon die Herstellungskosten für die Chips schnell drücken, und Siemens eröffnet noch dieses Jahr zusammen mit Intel ein „RFID-Technology Center“ in der Nähe von München.
Softwarehäuser entwickeln zurzeit die nötige Software zur Verwaltung der Datenmengen, die durch das Einscannen und Weitergeben der RFID-Daten entstehen. SAP bietet Middleware an, und auch Microsoft plant nach eigenen Angaben die Integration von Transponder-Daten in ihr Warehouse Management System.

Die Organisation „EPCglobal“, Gralshüter der Normierungs-Architektur hinter EPC, denkt schon weiter. Sie bietet eine einheitliche Infrastruktur für die per RFID erhobenen Daten und hat für den neuen Standard schon jetzt die wichtigsten internationalen Unternehmen im Boot. Ihr Vorteil: Es ist kein Konkurrenz-Standard in Sicht, zudem spielen die funkenden Chips ihre größten Vorteile nur dann aus, wenn die für den jeweiligen Teilnehmer in der Warenkette relevanten Informationen über das Produkt jederzeit abrufbar sind.

Der Chip selbst fasst nur wenige Informationen, er verweist aber auf eine dahinter liegende Datenbank. Diese soll dezentral als EPC-Netzwerk aufgebaut werden. Zurzeit entwickelt die als Internet-Domainverwalter bekannte Firma VeriSign im Auftrag von EPCglobal dieses weltweite Netzwerk. Die Struktur dieses weltweit erreichbaren Verzeichnisdienstes lehnt sich dabei an das aus dem Internet bekannte DNS (Domain Name System) an.
Die Änderungshäufigkeit der Daten spricht dagegen, diese jedes Mal, wenn sich der Lagerort ändert, an den Geschäftspartner zu übertragen. Was beim Barcode noch funktionierte, soll sich beim EPC grundlegend ändern. Jeder der Beteiligten hält seine Daten in seinem System, erlaubt jedoch autorisierte Zugriffe durch seine Partner. Die auf XML basierenden Metasprache PML (Physical Markup Language) soll plattformübergreifend für ein gemeinsames Datenbankformat sorgen.

Die Grundelemente für den weltweiten RFID-Datenaustausch stehen damit bereits fest. Und mit dem Aufweichen der Insellösungen einzelner Firmen und Konzerne wächst neben den Möglichkeiten der Warenkontrolle auch das Potenzial zur Kontrolle des Kaufverhaltens der Konsumenten. EPCglobal hat bereits reagiert und in ihren Datenschutzrichtlinen verankert, dass Käufer von RFID-Produkten stets darüber informiert werden sollen, dass sie die Möglichkeit haben die Tags außer Funktion zu setzen oder sie abzutrennen.

 

Kategorien
Elektronische Kultur Mixed

Hamburger Dialog 2003

telepolis v. 30.01.2003

Gute Stimmung im Tal der Tränen

Der Online-Journalismus der großen Verlage arbeitet stark defizitär – und das wird so bleiben. Auf dem Kongress „Hamburger Dialog“ übte man trotzdem die Gelassenheit und hofft auf Einnahmen in anderen Bereichen des Web.

Noch immer ist die Medien-Branche mit der prüfenden Durchsicht ihrer Aktivitäten im Netz beschäftigt. Besonders akribisch gehen dabei die Tageszeitungen und Wochenzeitschriften bei der Revision ihrer Online-Angebote vor. Die Frage ist mal wieder: Was spült Geld in die Kassen? Die Antwort: Journalistische Inhalte nicht. Auf dem diesjährigen „hamburger dialog“ wurde deutlich, dass sich Bezahlinhalte, sogenannter „Paid-Content“, in naher Zukunft nicht durchsetzen werden. Denn am Kiosk muss immer bezahlen werden, im Netz geht jeder dahin, wo es gratis ist. Was für die einen die genauso originäre wie wünschenswerte Eigenschaft des Netzes ist, bleibt für die anderen die bitterste Praline der Welt: Für die meisten kostenpflichtigen Angebote existiert eine Gratis-Alternative.

Jörg Bueroße von der „Tomorrow Focus AG“ bestätigte, dass nur schwer erhältliche oder gar exklusive Inhalte zum monetären Erfolg führen. So verzeichnet beispielsweise der Online-Scheidungsrechner des FOCUS munteren Zuspruch seitens der User, obwohl dessen Nutzung satte 4,99 Euro kostet. Ähnlich sieht es bei der Datenbank mit Terminen zur Zwangsversteigerung aus. Diese hat nach Angaben von Bueroße knapp 3000 Nutzer, die „nicht preissensibel“ reagieren würden. Mit anderen Worten: Ist die Brauchbarkeit hoch, dann zahlt der Surfer gerne.

Das bloße Publizieren im Web von Artikeln aus der Print-Ausgabe reicht dagegen bei weitem nicht aus, um die Kosten der schmucken Online-Auftritte der Verlage zu egalisieren. Arndt Rautenberg, von der Beratungsfirma „Sapient“ widersprach der oft gehörten Behauptung von der Beliebtheit von Online-Archiven. „Dies honoriert der User zwar, aber eben nur so lange, wie das Angebot kostenfrei bleibt.“ Und tatsächlich bestätigte Jörg Bueroße, dass die kostenpflichtige Archiv-Nutzung des „Focus“ ebenso wie die des „Spiegel“ „unterirdisch schlecht“ sei. Bei optimistischer Schätzung wird die Branche in vier bis fünf Jahren maximal zehn Prozent mit Paid Content umsetzen.

Glaubt man den Experten dient die Online-Präsenz der überregionalen Tageszeitungen wie FAZ oder Süddeutsche Zeitung damit weiterhin rein der Kundenbindung. Der Massenmarkt, den die Verlage in der Offline-Welt bedienen, sei im Internet für sie nicht erreichbar, behauptet Henrik Hörning vom Management-Beratungsunternehmen „detecon“. Die Folge sei eine Entwicklung wie man sie schon vom Privat-Fernsehen kenne: Umsonst und nur durch Werbung finanziert.

Freibier für Alle!

Von dem Ziel, mit ihren Internet-Auftritten rentabel zu wirtschaften, sind deutsche Medienhäuser also auch künftig weit entfernt. Daran wird wohl auch der „dernier cri“ der Branche, die Abonnements, die für ein monatliches Entgelt freien Zugriff auf Datenbanken erlauben, nichts ändern. Das Wall Street Journal, galt lange Zeit als gutes Beispiel für ein etabliertes und funktionierendes Abo-System. Es strotze mit mindestens 500.000 zahlenden Gästen. Das Problem war nur: Ein mit über 100 Leuten besetztes Call-Center, welches die Anfragen der Online-Abonnenten rund um die Uhr beantworten musste, verschlang über Jahre die eingefahrenen Umsätze. Erst heute schreibt der Netzsektor des Wirtschaftsblatts schwarze Zahlen. Nach dem Goldrausch herrscht weiterhin banges Fragen für welche Inhalte die Web-Gemeinde Geld ausgeben würde.

Der Verband der deutschen Zeitschriftenverleger (VDZ) präsentierte auf dem Kongress den Zwischenstand einer neuen Untersuchung, die Netzuser nach ihrer Zahlungswilligkeit befragt hat. Ob Zeitschriften-Artikel, mp3-Download oder Teilnahme an einem Adventure-Spiel: Die User sind nicht bereit viel mehr als 100 Cents auszugeben. Die magische Grenze für sogenannte „Pay-per-Use-Angebote“ sei ein Preis von rund einem Euro, erklärte Alexander von Reibnitz vom VDZ. Video- und Musik-Download haben nach wie vor das größte Potential. Bedingung für ein florierendes Download-Geschäft in diesem Sektor ist allerdings das breitbandige Internet. Kaum jemand ist gewillt Stunden auf einen Song von den White Stripes zu warten, geschweige denn für das lange Warten auch noch erhöhte Gebühren an den Provider zu entrichten. Ohne flächendeckende DSL-Flatrates stehen die Chancen auf Entertainment-Einnahmen denkbar schlecht.

Aber egal ob Artikel-Abruf oder Download eines Videos: Bezahlinhalte sind auch deshalb unbeliebt, weil der Weg der Tilgung meist kompliziert ist. Elektronisches Geld hat sich nicht durchsetzen können, aufwendige Registrierungen überfordern die Nutzer und führen zu Abbruchraten von über 80 Prozent. Hier funktionieren die klassischen Wege über die verpönten 0190-Nummer oder Fax-Polling wegen der Einfachheit und Anonymität noch immer besser als alle anderen Systeme. Ein klassischer Medienbruch, dessen Ende zur Zeit nicht in Sicht ist.

Kategorien
Buch: Abenteuer Künstliche Intelligenz Bücher Künstliche Intelligenz

Mac Profiler Rezension von Jörg Auf dem Hövel: Abenteuer Künstliche Intelligenz

Logo und Link zu Mac Profiler

FACHLITERATUR

Künstliche Intelligenz

>> Auf eine ganz besondere Reise nimmt der Publizist und Geisteswissenschaftler Jörg Auf dem Hövel seine Leser mit, die grobe Himmelsrichtung ist „Künstliche Intelligenz“. Ein Computerbuch sollte man jedoch nicht erwarten. Das Thema Computer umkreist der Autor eher sehr weiträumig anhand von Anekdoten, Paradoxiene und philosophischer Betrachtungen über künstliche Intelligenz. Auch wenn er die Geschichte der künstlichen Intelligenz beschreibt, in Forschungslabors schaut oder in die Zukunft intelligenter Automaten blickt, ist der geisteswissenschaftliche Blickwinkel des Autors nicht zu übersehen.
Ein intelligentes und ein bisschen verrücktes Buch, das um ein paar Ecken zu verblüffenden Perspektiven auf den Computer verhilft. (il)

Mac Profiler 12/2002

Kategorien
Künstliche Intelligenz

Container unter GPS-Kontrolle

FAZ-Logo und Link zur FAZ

 

Im Hamburger Hafen hilft das Satellitensystem beim Verladen und Lagern der Schiffsfracht

FAZ vom 16.09.2003

Der Burchardkai ist Hamburgs wichtigster Umschlagplatz für die Container-Schifffahrt. Von den im gesamten Hamburger Hafen im Jahr 2002 umgeschlagenen 4,7 Millionen 20-Fuß-Containern wurde mehr als die Hälfte über die Kaimauern des Burchardkai gehievt. Für deren effektive Lagerung und den Weitertransport per Bahn, LKW oder Schiff sorgt ein weltweit einmaliges Stellplatzsystem, das die Container per GPS (Global Positioning System) ortet.

VanCarrier_der_HHLA

Legt ein Schiff an einem der zehn Liegeplätze an, stellt ein Kran die Container für die sogenannten Van-Carrier bereit. Diese fahren über den Container und heben sich diesen an ihre Bauchunterseite. Alle dieser rund 94 Hubwagen sind mit GPS-Empfängern ausgestattet. Nun folgt eine Funkübertragung an die Systemzentrale auf dem Gelände, die den optimalen Standort für den Container durchgibt. Der Fahrer des Van-Carriers fährt zu dem Standort, die Software überprüft per GPS, ob sich der Hubwagen am korrekten Standort und gibt den Container frei. Die Van-Carrier können zwei- bis dreifach gestapelte Containerreihen überfahren, um Container aus der Reihe herauszunehmen und sie mit einem Minimum an Zeitaufwand in den Verladebereich zu transportieren. Aber um eine exakte Stellplatzzuweisung zu ermöglichen, war eine Erweiterung des herkömmlichen GPS nötig, denn dieses arbeitet zu ungenau.

Beim GPS umkreisen 21 Satelliten, zuzüglich drei Reserveeinheiten, den Planeten. Die Flugbahnen sind so berechnet, dass die gesamte Erdoberfläche zu jeder Zeit von vier Satelliten ausgeleuchtet wird. Diese strahlen zwei codierte Signale aus. Der erste Code ist wohlgehütetes Geheimnis des us-amerikanischen Militärs und nur wenigen Menschen bekannt. Mit Empfängern, die diesen Precision-Code (P-Code) empfangen und entschlüsseln können, sind genaue Ortsbestimmungen von bis zu drei Metern möglich. Der andere Code ist mittlerweile elektronischen Allgemeingut und wird von den gängigen GPS-Empfängern genutzt. Diese, PRN-Code (Pseudo Random Noise) genannte Chiffre, erlaubt Ortungen bis zu etwa 30 Metern Genauigkeit.

Genau hier lag das Problem für die Techniker vom Burchardkai, denn einen Container im Umkreis von 30 Metern suchen zu müssen kostet zuviel Zeit, zudem ist keine effektive Stapelung möglich. Man behalf sich mit einem Kniff: An einem genau vermessenen Punkt auf der Container-Anlage wurde ein zweiter Satellitenempfänger installiert, der seine vermeintliche Position aus den GPS-Satelliten bestimmt, mit der wahren, bekannten Position vergleicht und die Abweichungen zur Erzeugung von Korrekturwerten verwendet. Die Korrekturen sendet er dann an die GPS-Empfänger auf den Van-Carriern. Diese nutzen die empfangenen Korrekturwerte zur Erhöhung der Genauigkeit ihrer Positionsberechnungen. Dieses „Differential-GPS“ genannte Verfahren wird in der Industrie mittlerweile überall dort eingesetzt, wo man auf metergenaue Ortungen angewiesen ist.

Im Hafen kommt man so auf eine Messgenauigkeit von unter zwei Metern. Hartmut Richter, 41, beim Betreiber des Burchardkai, der Hamburger Hafen- Lagerhaus-AG (HHLA), für Kommunikationstechnik zuständig, weiß: „Im Alltag sind sogar Werte zwischen 50 Zentimeter und einem Meter typisch“. Damit aber nicht genug. Bei der HHLA kann man sich einen Ausfall der Container-Navigation nicht leisten. Sollte das GPS-System, sei aus technischen Gründen oder weil die US-Militär keine Kapazitäten frei sehen, gänzlich ausfallen, steht auf dem Burchardkai noch eine lasergestützte Ortsbestimmung zur Verfügung. Aber bislang, so Richter, sei die Verfügbarkeit der GPS-Anlage „mit 90 Prozent sehr hoch“.

Erst die Installation des GPS-Rangiersystems ermöglichte die hohe Auslastung der Container-Anlage. Über 5000 Schiffe legen jährlich am Burchardkai an, der wie eine riesige Halbinsel in der Elbe liegt. Die Van-Carrier stapeln dabei rund 2,5 Millionen 20 Fuß-Container auf dem Gelände. Zur Zeit noch in drei Ebenen, prosperiert die Hafenwirtschaft aber weiterhin, muss eine vierte Ebene eröffnet werden, um alle Container unterzubringen. Schon jetzt garantiert GPS die Vermeidung von zeitaufwendigen Umstapelvorgängen und hält die Wege zu den jeweiligen Verladestationen kurz. Die Betreiber wissen in jedem Moment, wo sich jedweder Container auf dem 1, 5 Millionen Quadratmeter großem Gelände befindet.
Nach Angaben von Carsten Mölck, 43, Projektleiter bei der Einführung des GPS, kam es während des Irak-Kriegs zu keinen Beeinträchtigungen der Genauigkeit der GPS-Signale. Gleichwohl beobachtet man die Bemühungen Europäischen Weltraum Agentur ESA, mit „Galileo“ ein 30 Satelliten starkes Konkurrenzsystem aufzubauen, mit Interesse. Die Signale der oft sehr weit südlich stehenden GPS-Satelliten treffen nämlich zu tangential auf die Empfänger im Norden Europas. Die großen Containerschiffe werfen dann einen erheblichen Schatten auf den Burchardkai, in dessen Bereich kein Signal zu empfangen ist. Mit Galileo wäre eine bessere Ausleuchtung in Nordeuropa sehr wahrscheinlich.
 

 

 

 

 

]]>

Kategorien
Buch: Abenteuer Künstliche Intelligenz Bücher Künstliche Intelligenz

RTV Rezension Joerg Auf dem Hoevel Abenteuer Kuenstliche Intelligenz

BÜCHER

Gibt es eines Tages eine Maschine, die denkt, fühlt, redet & sich selbst erkennt? In Amerika, Europa & Asien wird fleißig daran gebastelt. Der Hamburger Autor zieht hier Zwischenbilanz: fachkundig, neugierig, hochinformativ & zugleich unterhaltsam. Eine seltene Mischung.“

RTV, 22/2003

Kategorien
Elektronische Kultur

Spam: Die digitale Plage

Frankfurter Allgemeine Zeitung, 15. Juli 2003

Die digitale Plage und der Frust mit der E-Mail

Die Flut an unerwünschter E-Mail nimmt groteske Ausmaße an. Mittlerweile bestehen mehr als 70 Prozent der täglich rund 30 Milliarden um den Globus flitzenden E-Mails aus lästiger Werbung. Das wichtigste bidirektionale Kommunikationsmittel des Zeitalters droht in einer Flut aus Informationsmüll unterzugehen.

Juristische Schritte gegen die Versender versanden meist im Gefüge der internationalen Strafverfolgungsbehörden. Um ihren Kunden weiterhin einen reibungslosen Schriftverkehr zu ermöglichen, setzen deutsche Unternehmen wie der Internet-Provider T-Online oder der Mailbox-Anbieter GMX daher auf aufwendige technische Methoden. „Spam“, so der Ausdruck für diese Art der unerlaubten Werbung und Belästigung, soll vom Provider abgefangen werden und nicht mehr beim Kunden ankommen. Dabei muß zwischen zwei Verfahren unterschieden werden, die nacheinander zum Einsatz kommen: dem Blocken und dem Filtern von Mail.

Beim Blocken schaut der Server im Rechenzentrum des Empfängers in einer internen Liste nach, ob er überhaupt willig ist, Post von dem Mail-Server des Versenders anzunehmen. Diese sogenannte „Blacklist“ besteht aus einer Reihe von Rechneradressen (IP-Adressen), von denen bekannt ist, daß schon einmal Spam über sie versandt wurde. Während der Empfänger am heimischen PC nicht mitbekommt, daß eine an ihn adressierte Mail bereits an den Toren seines Providers abgefangen wurde, erhält der Versender eine kurze Nachricht über seine Klassifizierung als Spam-Host.

Die schwarzen Listen werden von den E-Mail-Anbietern mühsam gepflegt, bei AOL Deutschland beispielsweise beschäftigen sich 30 Mitarbeiter mit dem Thema Spam. Die in aller Welt postierten Server erhalten täglich 1,6 Milliarden E-Mails, bei 75 Prozent handelt es sich nach Angaben von Tobias Riepe, Pressesprecher bei AOL Deutschland, um reinen Spam. Mittlerweile bieten Unternehmen und Organisationen die Blacklists zum Kauf an. Die meisten deutschen Mail-Dienste werten verschiedene Listen aus und gleichen sie mit den IP-Adreßlisten ab, von denen auf jeden Fall Mail angenommen wird (Whitelists). Gleichwohl kommt es immer wieder zu Pannen. So landete im vergangenen Jahr ein Mail-Server des deutschen Anbieters Web.de auf einer Blacklist. Die Folge: Die Kunden von Web.de konnten für einige Zeit keine Mail an bestimmte Adressen versenden.

Heute wird Spam auch über Privat-PCs versandt, die durch Würmer oder Viren infiziert sind. Sie sind Teil eines „Bot-Net“, eines Netzwerks von „Zombie-PCs“, die ferngesteuert und unbemerkt vom Benutzer als Datenschleuder für den massenhaften Versand von Spam-Mail agieren. Die Betreiber solcher Netze haben zeitweilig die Gewalt über 30000 Rechner und vermieten das Netzwerk an Interessenten. Die IP-Adressen der ahnungslosen Spam-Versender stehen auf keiner Blacklist, weisen aber doch einen Nachteil auf: Die meisten Nutzer des Internets wählen sich über einen Provider ins Netz der Netze ein und erhalten eine dynamische IP-Adresse, die sich bei jeder Einwahl ändert. Einige E-Mail-Diensteanbieter wie beispielsweise Web.de sind daher dazu übergegangen, grundsätzlich keine E-Mails von solchen DSL- oder Modem-Verbindungen anzunehmen. Privatleute oder kleinere Unternehmen, die ihren eigenen Mail-Server über DSL betreiben, können also keine Nachrichten an Web.de-Kunden senden.

Enges Kontrollnetz

Das den Datenverkehr umschließende Kontrollnetz wird enger. Damit aber nicht genug: Das Eigentumsverhältnis eines E-Mail-Accounts geht durch die breitgefaßte Einverständniserklärung in Anti-Spam-Techniken langsam auf den Diensteanbieter über. Um Datenfluß und Geschäft aufrechtzuerhalten, besteht er auf immer stärkeren Eingriffsmöglichkeiten bei den Konten der Kunden. Unternehmen, Universitäten und alle anderen Organisationen, die Mail geschäftsmäßig regelmäßig verbreiten, stehen vor einem Spam-Dilemma. Um den betrieblichen Ablauf zu gewährleisten, müßten sie bei Massenangriffen Spam eigentlich an ihren Netzgrenzen rigoros löschen oder ganze IP-Adreßbereiche sperren – unterliegen damit aber immer der Gefahr, daß sie gegen die verbotene Nachrichtenunterdrückung verstoßen. Ulrich Pordesch, IT-Sicherheitskoordinator der Fraunhofer-Gesellschaft: „Wegen des Verbots der Mailunterdrückung zwingt uns das Telekommunikationsgesetz faktisch, Spam durchzuleiten. Wir dürfen ihn nur markieren oder separat, aber zugänglich abspeichern, nicht aber zentral löschen. “

Niedrige Serverlast

Etwas weniger dramatisch sieht es Jürgen Taeger, Rechtsinformatik-Professor an der Universität Oldenburg: „Das Strafgesetzbuch stellt zwar das Abfangen und Löschen von E-Mails durch Provider und sogar durch private und öffentliche Arbeitgeber unter Strafe, aber nur, wenn nicht durch allgemeine Geschäftsbedingungen in den Providerverträgen oder durch Einwilligungen eine Erlaubnis zum Filtern erteilt wird.“ Rechtlich auf der sicheren Seite sind die Diensteanbieter nach der Einschätzung von Taeger dann, wenn die Spams zudem in einen vom Adressaten einsehbaren Ordner abgelegt werden, bevor sie vom Nutzer oder Betreiber in Zeitintervallen gelöscht werden. Seit kurzem analysieren einige deutsche Mail-Provider die Frequenz eingehender Mails. Sie erfassen die Anzahl der vom selben Mail-Server in einem Zeitraum abgeschickten Nachrichten und vergleichen sie mit der bisherigen Mail-Frequenz dieses Rechners. Kommen plötzlich Tausende Mails von einem Server, von dem bisher kaum E-Mail kam, landet der Server auf der hauseigenen Blacklist. Selbiges gilt, wenn ein Rechner versucht, viel Post an nichtexistente E-Mail-Adressen zu senden. Alle diese Verfahren auf IP-Ebene haben einen Vorteil: Da die Spam-Mail erst gar nicht angenommen wird, bleibt die Serverlast beim Provider niedrig. Firmen wie T-Online und 1&1 filtern eigenen Angaben zufolge bis zu 70 Prozent des Spam allein über die Blacklists und die SMTP-Kontrolle aus.

Umstrittene Blacklists

Juristisch ist dieses Vorgehen umstritten. E-Mail unterliegt dem Fernmeldegeheimnis, und während bei der Virenfilterung noch von einem unausgesprochenen Einverständnis der Adressaten ausgegangen wird, soll es ja durchaus Leute geben, die regelmäßig über Neuerungen auf dem Potenzmittelmarkt aufgeklärt werden wollen. Außerdem ist durch Blacklists auch nicht auszuschließen, daß „false positives“, wie die versehentlich aussortierten seriösen E-Mails heißen, unter den nicht zugestellten Sendungen sind. Die Empfänger erhalten aber über die per Blacklists abgewiesenen Mail-Versuche keine Nachricht vom Provider. Während diese sich die Funktion der hinter die schwarzen Listen geschalteten heuristischen Mail-Filter noch meist durch den Kunden bestätigen lassen, ist dieser dem Aussieben durch die Blacklists ungefragt ausgeliefert. Jürgen Taeger: „Eine pauschale Einwilligung in das Blacklisting ist – anders als bei der Filterung und Umleitung in Spam-Ordner – wohl nicht möglich.“

Bisher ziehen sich Mail-Unternehmen, aber auch Firmen, Universitäten und Behörden auf den Standpunkt zurück: Was gar nicht erst angenommen wird, muß auch nicht weitergeleitet werden. Niemand hat, so ihre Meinung, einen Rechtsanspruch darauf, daß sich ihre Server überhaupt mit seinem Rechner „unterhalten“. Aus ihrer Sicht ist eine Nachricht ihnen erst dann anvertraut, wenn die E-Mail komplett auf ihrem Mail-Server liegt. Aber diese Rechtsansicht ist ungeklärt: Immerhin muß der Mail-Server in den Header der Mail schauen, um die IP-Adresse zu extrahieren – einen Teil der Nachricht hat das Unternehmen oder die Behörde also durchaus schon entgegengenommen.

Roland Steidle, Rechtsanwalt bei Waldeck Rechtsanwälte in Frankfurt am Main, kritisiert diesen Standpunkt der Unternehmen: „Grundsätzlich ist im Verhältnis zwischen Providern und Kunden davon auszugehen, daß E-Mails vom Provider anzunehmen und auch zuzustellen sind.“ Dies wird besonders bei kostenpflichtigen Mail-Accounts deutlich, bei denen ein Kunde für die Möglichkeit, Mails zu empfangen, zahlt. Bei Kunden eines Providers, die ihre Mailbox geschäftlich nutzen, können sogar entsprechende gesetzliche Pflichten nach dem Teledienstegesetz bestehen.

Systemzensur möglich

Manche E-Mail erreicht schon heute ihr Ziel nicht mehr – ohne daß der eigentliche Empfänger davon etwas mitbekommt. So wirkungsvoll die Blacklists sind, so sehr greifen sie in den bislang bedingungslosen Transport elektronischer Nachrichten ein. Der bisherige Grundsatz, jede technisch einwandfrei ins System eingebrachte Nachricht auch zu transportieren, wird zunehmend ausgehöhlt. Was heute noch als technische Maßnahme gegen Spam gilt, kann morgen als Bauteil einer Systemzensur mißbraucht werden.

Freier Weg nur noch für erwünschte Mails

Damit das Vertrauen in das Medium E-Mail nicht weiter schwindet, suchen Internet-Organisationen und Provider nach neuen technischen Möglichkeiten der Mail-Kontrolle. Die aktuelle Idee hinter den Bemühungen setzt auf eine Umkehrung der Verhältnisse: Die globalen Mail-Server sollen nicht mehr die unerwünschten Briefe aussortieren, sondern nur noch die erwünschten durchlassen. Dafür sollen sich die weltweiten Absender-Domains gegenseitig authentifizieren. Mehrere Verfahren sind im Gespräch, AOL und andere Firmen präferieren das „Sender Policy Framework“ (SPF), Microsoft setzt auf „SenderID“, Yahoo, Google Mail und Lycos auf „Domain Keys“.

Alle diese Verfahren haben eines gemeinsam: Die am System teilnehmenden Provider und Organisationen veröffentlichen im Domain Name System (DNS), welches normalerweise für die Auflösung einer Internet-Adresse wie www.faz.net in die dahinterstehende IP-Nummer (hier: 193.227.146.1) zuständig ist, die Angabe, welche Mail-Server E-Mails aus ihren Domains heraus versenden dürfen. Gefälschte Absenderadressen sollen so verhindert werden.

SPF funktioniert nur, wenn es weit verbreitet ist. So lange müssen alle Mail-Server nach wie vor Mail von Domains ohne SPF-Eintrag annehmen, können diese jedoch als potentiell verdächtig einstufen. Ein weiterer Nachteil: SPF wie Sender ID lassen nur schwerlich die Weiterleitung (forwarding) von Mail zu, scheint die Nachricht doch von einem falschen Rechner zu kommen. Zudem tauchen in letzter Zeit vermehrt gefälschte SPF-Einträge auf – wieder einmal adoptieren Spamer eine Technik schneller als die legitimen E-Mail-Versender. Neben SPF und Sender ID buhlt das Domain-Keys-Verfahren um die Akzeptierung als Internet-Standard. Es gilt als komplex, aber technisch ausgereift. Der Nachteil: Es benötigt viel Kapazität in den Rechenzentren, nutzt es doch eine asymmetrische Verschlüsselung. Die Mail wird mit einer digitalen Signatur versehen, die der empfangende Server anhand eines Schlüssels, der im DNS dieser Domain verfügbar ist, verifiziert. Schlägt dies fehl, wird die Nachricht nicht ausgeliefert.

Kategorien
Buch: Abenteuer Künstliche Intelligenz Bücher Künstliche Intelligenz

FAZ Rezension Joerg Auf dem Hoevel Abenteuer Kuenstliche Intelligenz

FAZ-Logo und Link zu FAZ

 

BUCHBESPRECHUNG

Was ist Intelligenz?

13. Mai 2003 Es ist ein uralter Wunsch des Menschen, eine „intelligente“ Maschine zu bauen, die denkt, fühlt, redet und sich selbst erkennt. Diese Vorstellung birgt ebensoviel Schrecken wie Faszination. Können Maschinen überhaupt „denken“ oder Computerprogramme so etwas wie ein Bewußtsein entwickeln? Ist Bewußtsein die Voraussetzung für Intelligenz? Wer sich auf das „Abenteuer Künstliche Intelligenz“ einläßt, wird schnell mit einer ganzen Reihe philosophischer Fragen konfrontiert. Einfache Antworten gibt Jörg auf dem Hövel nicht – wohl aber eine Reihe ebenso geistreicher wie amüsanter Denkanstöße. Auf dem Hövels spannende Reise folgt den Spuren der Künstlichen Intelligenz (KI) von ihren Anfängen bis heute. Anschaulich und unterhaltsam eröffnet er dem Leser einen Blick in die Forschungslabore. Noch fallen die Ergebnisse bescheiden aus. Der Faszination des Themas tut dies jedoch keinen Abbruch. Die frühen Pioniere der KI wie Alan Turing, Claude Shannon oder Norbert Wiener stellten die rationale Intelligenz in den Vordergrund und entwickelten erstaunlich „intelligente“ Schachcomputer. Viele alltägliche Dinge – wie etwa das Überqueren einer Straße – sind jedoch eine komplizierte Abfolge koordinierter Aktivitäten. Beim Versuch, diese Abläufe detailliert zu berechnen, scheitert der rein rationale KI-Ansatz an den Grenzen der Rechenleistung. Erst in den achtziger und neunziger Jahren entdeckten die Forscher den Körper als Träger einer eigenen Intelligenz. Trotzdem weiß bis heute niemand, wie menschliche Intelligenz funktioniert. Aber das sich mehrende Wissen schürt die Hoffnung der KI-Anhänger, daß ihre Rekonstruktion der Intelligenz in greifbare Nähe rückt. Mit der Konstruktion denkender Maschinen will der Mensch vor allem sich selbst erkennen. Paradox ist allerdings, daß er mit der Erschaffung eines Ebenbilds gleichzeitig die Einzigartigkeit seines Menschseins zerstört: Auf dem Hövel hat ein lehrreiches Buch mit vielen Anhaltspunkten zum Nachdenken geschrieben, das auch für den Technik-Laien verständlich ist.

MICHAEL SPEHR

FAZ vom 13. Mai 2003

Kategorien
Künstliche Intelligenz

Interview mit Rolf Pfeifer, Labor für Künstliche Intelligenz, Universität Zürich

Künstliche Intelligenz, Heft 1/2003

Rolf Pfeifer schrieb zusammen mit Christian Scheier „Understanding Intelligence – eine auch für Nichtinformatiker leicht lesbare Gesamtdarstellung der „Neuen künstlichen Intelligenz“.
Jörg Auf dem Hövel:
Biologie und Biorobotik arbeiten im Zürichicher AI-Lab eng zusammen, wobei die Künstliche Intelligenz viel von der Natur lernen kann. Was aber kann denn die Biologie von ihnen lernen?

Rolf Pfeifer:
Ein Beispiel: Die Wüstenameise Cataglyphis orientiert sich am Polarisationsmuster der Sonne. Im Aufnahmeapparat der Ameise existiert Rezeptoren, die das Licht in unterschiedlicher Richtung polarisieren. Der eine Rezeptor oder Polarisationsfilter arbeitet also beispielsweise nach vorne, der andere zur Seite. Die Theorie der Biologen besagte nun folgendes: Wenn man nun die verknüpften Polarisationssensoren dreht, dann ändert sich in systematischer Weise der Output des betreffenden Neurons. Während die Ameise sich also dreht, ändert sich der Output. Sie muss das Maximum des Output suchen um eine Referenzrichtung zu erhalten. Als wir diese Konstruktion auf einem Roboter implementierten sahen wir, die Richtung des Maximums einen relativ grossen Fehler aufweist. Mit dieser Unschärfe würde die Ameise aber nicht so geradlinig zum Nest zurückkommen, wie sie das in der Realität tut. Als wir einen Roboter mit diesem Mechanismus zu bauen versuchten, bemerkten wir, wie unpräzise er mit diesem Verfahren fährt. Dann haben wir ein wenig rumgespielt und hin und her versucht. Schließlich versuchten wir es mit drei Sensorsystemen, die auf 0 Grad, 60 Grad und 120 Grad ausgerichtet sind, so wie das von der Ameise bekannt ist. Wenn man die Outputs dieser drei Systeme miteinander verknüpft, und die absolute Differenz von zwei Systemen vom Wert des ersten System abzieht, dann ergibt sich eine hohe Schärfe der Orientierung. Dies stellt nun eine Hypothese dar für die Biologen – gibt es tatsächlich bei den Ameisen oder den Bienen, die ebenfalls diese Orientierungsmöglichkeit besitzen, Neuronen, die diese Art der Berechnung durchführen? Es scheint gewisse Hinweise darauf zu geben, aber ob man das tatsächlich gefunden hat oder nicht ist mir zur Zeit nicht bekannt.

Rolf Pfeifer

Haben Sie noch ein anderes Beispiel?

Sicher. Dimitri Lambrinos und Ralf Möller haben überlegt, ob es ausreicht, wenn der Sahabot in der nahen Umgebung des Nests nicht einen kompletten Snapshot, sondern nur einen Mittelwert über alle Landmarken bildet und damit nur einen Vektor abspeichert. Erstaunlicherweise findet der Roboter in den meisten Fällen genauso gut zum Eingang des Nestes zurück. Das funktioniert ebenfalls, wenn man statt weniger Markierungen hunderte von Markern setzt, an denen der Roboter sich orientieren kann. Später testeten wir das in normalen Büroumgebungen und das funktionierte ebenfalls. Das ist natürlich Wahnsinn, denn es müssen nur zwei Zahlen gespeichert werden, um eine komplexe Umgebung im Körper zu repräsentieren. Wenn man das zudem analog macht, dann kostet das praktisch nichts. Ein gutes Beispiel für cheap design, welches sich in der Natur so häufig durchsetzt. Die Biologen testen zur Zeit, ob die Ameise nach dem Snapshot-Modell oder dem Average-Landmark Modell vorgeht. So kann die Robotik Hypothesen aufstellen und die Biologen können sie überprüfen.

Trotz der Verkörperung und der damit beabsichtigten Verabschiedung der symbolverarbeitenden Maschine, arbeiten ihre Roboter ja gleichwohl mit Prozessoren, die Algorithmen ausführen. Wie passt das zusammen?

Das ist ein guter Punkt und bleibt ein Problem, obwohl ich es eher in den philosophischen Bereich rücken würde. Zum einen arbeiten wir mit Neuronalen Netzen, die zwar letztlich auch in einem Mikroprozessor ablaufen, die aber vom Konzept her natürlichen Neuronen nachempfunden sind. Die Idee dabei ist, das man auf einer gewissen Abstraktionsebene von künstlichen Neuronen spricht und nicht von ihrer digitalen Simulation. Wenn man die Auflösung genügend fein macht, dann hat das weithin analogen Charakter. Zum anderen haben wir tatsächlich Roboter gebaut, die ganz ohne Software auskommen. Diese bestehen nur aus analogen Schaltkreisen. Den Analog-Robot hat Ralf Möller entwickelt, der jetzt beim Max-Planck-Institut in München ist.

Das wirft auch ein anderes Licht auf den Begriff der Wahrnehmung.

Die Leute denken immer an Input bei Wahrnehmung. Und ich mache meine Mitarbeiter in den Diskussionen fast wahnsinnig, weil ich immer wieder darauf hinweise, dass es sensormotorische Kopplungen sind, die das Erleben bestimmen. Um das zu zeigen haben wir einen analog-VLSI Chip entwickelt, diesen an die Peripherie des Roboters geschoben und dort eine komplette sensormotorische Schleife konstruiert. Von den lichtsensitiven Zellen über das „attentional processing“ bis zum Berechnen des Steuersignals für die Motoren ist bei diesem Analog-Roboter alles auf einem analog-VLSO-Chip implementiert. Es ist also durchaus möglich ganz ohne digitale Simulation des neuronalen Netzes auszukommen.

Ein Kernpunkt der Neuen KI ist Emergenz. Wie kam man in der Neuen KI darauf, dass Intelligenz aus dem Zusammenspiel einfacher, an und für sich unintelligenten Teile, entstehen, halt emergieren kann? Was führte zu der Einsicht, dass der symbolverarbeitende Ansatz allein nicht ausreicht, um intelligentes Verhalten zu entwickeln?

Das ergab sich zum einen sicherlich aus dem Betrachten evolutionärer Vorgänge. Aus einfachen Elementen entstehen komplexe Komponenten, die wiederum Teil von größeren Einheiten sind. Aus toter Materie ist schließlich auch der Mensch entstanden. Auf der anderen Seite erkannte man Anfang der 80er Jahre, dass der symbolverarbeitenden Ansatz an seine Grenzen gestoßen war. Es existierte ein Haufen von KI-Gebieten, von Expertensystemen, Wissensrepräsentationen, Problemlösen, Theorembeweisen. Viele von uns interessierte damals aber nicht nur das Schreiben von Computerprogramme, die eine Aufgabe erfüllen, sondern wir wollten etwas über natürliche Intelligenz lernen. Wenn man die klassische KI anschaut, dann erkennt man sehr wohl die wertvollen Beiträge, die sie beispielsweise für die mathematische Logik und die Algorithmik geleistet hat. Aber sie hat sehr wenig zum Verständnis natürlicher Intelligenz beigetragen und stieß aus diesem Grund an eine Grenze. Das hat viele Forscher frustriert. Den Paradigmenwechsel eingeleitet hat dann sicherlich die Theorie der Neuronalen Netze…

Christoph von der Marlsburg…

Genau. Der Mann ist immer noch einer der originellsten Köpfe in dem Gebiet. Nun, auf alle Fälle haben viele Forscher darin eine Antwort auf die Frage gesehen, wie ich Symbolen Bedeutung geben kann. Ein weiterer Punkt für den Wechsel war sicherlich das Scheitern, mit den bisherigen Ansätzen intelligent handelnde Roboter zu bauen. Man merkte damals nämlich, dass man nicht einfach ein symbolverarbeitenden Programm nehmen, eine Kamera anhängen und einen Pixel-Array auf die internen Symbole abbilden kann. Wenn man mal reale Kamerabilder angesehen hat und diese mit sich bewegenden Kamerabildern vergleicht, dann sieht man, dass das nicht funktionieren kann. Es wurde also langsam klar, dass dies eine völlig falsche Sicht der Dinge ist. Rodney Brooks hat seine Dissertation im Bereich der klassischen Computer-Vision gemacht und war frustriert, mutmaßte, dass der bisherige Ansatz salopp gesprochen völliger Quatsch ist.

Da war er nicht der Einzige.

Sicher. Schon Hubert L. und Stuart E. Dreyfus haben das kritisiert. Terry Winograd schrieb Anfang der 70er Jahre das Programm SHRDLU und fing Anfang der 80er Jahre an, über diese Dinge vertieft nachzudenken und den Ansatz der klassischen KI zu kritisieren. In den Insiderkreisen zirkulierten damals schon Manuskripte, später kam sein Buch „Understanding Computers and Cognition“ heraus. Im Rotbuch-Verlag erschienen, erlangte es schnell Kult-Status. Ebenfalls mit dabei war William J. Clancey, der an medizinischen Expertensystemen arbeitete und alle paar Jahre einen Artikel veröffentliche, der die scientific community schockierte.

Zentral für ihre Arbeit ist ebenfalls der Begriff der Emergenz. Was verstehen sie darunter?

Ein gutes Beispiel für Emergenz ist das Vehikel I von Braitenberg. Das hat vorne einen Sensor, hinten einen Antrieb und ein die beiden Elemente verbindendes „Gehirn“, welches aus einem einzigen künstlichen Neuron besteht. Je mehr Qualität der Sensor liefert, umso schneller läuft der Motor. Die Beschaffenheit des Sensors ist dabei beliebig wählbar. Der kann Temperatur, Lichtintensität oder chemische Konzentration messen. Nehmen wir einen Temperatursensor und angenommen, dass Vehikel ist im Wasser, dann fährt es nicht einfach gleichmäßig geradeaus. Dort existieren Strömungen, Wirbel, andere Fische, Temperaturschwankungen und so fährt es an einem Ort schneller, an einem anderen langsamer. Da kann der Beobachter leicht zu der Annahme kommen, dass es sich lieber im kalten Wasser aufhält. Dabei macht das Gehirn nichts anderes, als den Sensor mit dem Motor zu verbinden. Schon bei zwei Sensoren und zwei Motoren wird das Verhalten enorm komplex. Der Punkt von Braitenberg ist der, dass man die Mechanismen genau erklären kann, es ist aber sehr schwierig, aus dem Verhalten zurück auf die Mechanismen zu schließen. Verhalten, welches kompliziert aussieht, lässt sich häufig viel einfacher erklären. Das ist die Idee der Emergenz.

Aber den umgekehrten Fall gibt es auch.

Wenn ich mit dem Finger von meiner Nase weg geradeaus fahre, dann ist das eine sehr viel schwierigere Bewegungen als eine kreisförmige mit dem ganzen Arm.

Deswegen ist das auch der Trunkenheitstest bei der Polizei. In us-amerikanischer Tradition versucht Brooks sich wieder am Nachbau des Menschen.

Der Brooks ist wahrscheinlich viel intelligenter als die Leute glauben. Er hat wahnsinnig gute Intuitionen, die er leider nicht theoretisch weiter verfolgt. Wenn man mit ihm über theoretische Dinge reden will, dann sagt er meistens: „Ah, forget about the theory.“

That´s the american way.

Der Mann ist nicht Amerikaner, sondern Australier. Er lebt nur seit 20 Jahren in den USA.

Dann ist er konvertiert.

Seine Argumentation ist im Grunde folgende: Der Schritt von den Einzellern zu mehrbeinigen Insekten war der wichtige in der Evolution. Von den Insekten zu den Menschen war es dann nur noch ein vergleichsweise kleiner Schritt. Wir müssen also erst einmal verstehen, wie und warum sich Einzeller zu komplexen Lebewesen entwickelt haben, dann wird der Rest recht einfach.

Und wie ist der Erkenntnisstand der Neue KI zur Zeit? Nach Dennet befindet sich die Robotik ja noch im Stadium des Bakteriums. Robocteria?

Ich bin nicht ganz sicher. Natürlich haben Bakterien schon eine enorme Komplexität. Sensorik, Motorik, interne Verarbeitung, Stoffwechsel…

Selbstreproduktion…

…richtig, sie hat genetisches Material. Insgesamt enorme Komplexität. Wir versuchen heute in erste Linie das Verhalten von Insekten zu verstehen, machen aber auch Experimente, die in Richtung des Verständnis´ menschlicher Intelligenz gehen. Brooks liebt es Roboter zu bauen, und letztlich wollte er einen humanoiden Roboter bauen, weil das spektakulärer ist. Aber auch hier hat er wieder die richtigen Ideen gehabt und sehr viel Wert auf die Sensormotorik gelegt. Er ist ohnehin ein ungewöhnlicher Forschertyp. Sein Onkel ist der Regisseur Mel Brooks, wie er einmal erzählte. Ich weiß nicht genau, ob das stimmt.

So oder so hat er anscheinend Humor.

Rolf Pfeifer AI Lab Zürich
Rolf Pfeifer Copyright AI Lab Zürich

Der kann die Leute nach belieben verarschen. Und wenn er sagt, dass sie einen Roboter bauen werden, der die Intelligenz eines 4jährigen Kindes hat, dann darf man das nicht allzu ernst nehmen. Ich erinnere mich, dass er auf einem Vortrag einmal die erste Folie auflegte auf der stand nur: „THINK BIG“.

In der Neuen KI kommen die Gedanken der Systemtheorie, eigentlich schon in den 60 Jahren entworfen, zu später Ehre. Rückkopplungsschleifen, stabile Eigenwerte, Selbstorganisation. Was bedeuten diese Begriffe für die Neue KI? Und wie hängen Rückkopplungsschleifen und sensormotorische Kopplung zusammen?

Feedbackschleifen sind mittlerweile überall entdeckt und nutzbar gemacht worden. Die alten Kybernetiker, wie beispielsweise Norbert Wiener, waren ja zugleich an den Entwicklungen der ersten Digitalcomputer beteiligt. Man muss die damalige Euphorieverstehen, denn plötzlich stand eine anscheinend alles könnende Maschine zur Verfügung. Die Kybernetik geriet so in den Sog der Bestrebung, alles zu digitalisieren. Parallel dazu entwickelte sich die Idee, dass auch das natürliche Denken wie ein Computer funktioniert. So kam es zum Ausdruck des „Elektronengehirns“ und der Idee, dass auch der Mensch nach dem Schema von Input, Verarbeitung und Output arbeitet. Viele Talente der Kybernetik und des systemischen Denkens wanderten zur klassischen KI. Die frühen Kybernetiker formulierten Grundlegendes, die Ideen eines Heinz von Foerster sind beispielsweise so aktuell wie nie. Dann schlief die Bewegung ein und erst durch das Aufkommen der Neuronalen Netze wurden die Ideen wiederbelebt. Ich erinnere mich an eine Zeit, da war es in der klassischen KI verpönt, überhaupt von reellen Zahlen zu reden. Man unterhielt sich in Form von abstrakten Symbolen, welche die Essenz der Intelligenz darstellen sollten. Durch die Neuronalen Netze kam eine neue Qualität in Bezug auf Feedback ins Spiel. Bei diesen hat man eben nicht mehr nur einen Wert und eine Rückkopplungsschleife, sondern man hat eine enorme Menge von Rückkopplungsdaten. Deswegen spricht man heute auch eher von rekurrenten Netzen. Edelmann fing damit an, von Re-Entry und nicht von Rückkopplung zu sprechen. Die dichte Verknüpfung der Netze untereinander und Rückkopplungen in diesen Verknüpfungen stellen die neue Dimension da, die nicht mehr allein durch das Prinzip von „set-value – Feststellung einer Abweichung vom effektiven Wert – Fehlerkorrektur“ bestimmt werden kann.

Roboterbau bedeutet ja aber auch heute noch nicht, dass auf sensormotorische Kopplung und Situatedness gesetzt wird.

Leider nicht. Im Forschungszentrum eines grossen Automobilkonzerns brachte mir im Jahr 2000 ein Roboter eine Tasse Kaffee. Er rollte zunächst zum Kaffee-Automaten, scannte mit einem enorm teuren Laser den Abstand für ein Distanzprofil, sodann setzte er seinen Path-Planer ein, der den Pfad für die weitere Aktion berechnet hat. Während der dann folgenden Ausführung des Pfads fand keine Kopplung mit der Umwelt da. Leider lag aber die Tasse etwas schräg im Greifarm des Roboters, so dass er fast das Rohr, aus dem der Kaffee strömen sollte, abgebrochen hat. Wenn er eine sensormotorische Kopplung gehabt hätte, wäre das gar kein Problem gewesen, weil er das sofort bemerkt hätte.

Ein Problem beim Aufbau komplexer Systeme besteht ja offen sichtlich darin, dass sich die einzelnen Elementarverhalten gegenseitig beeinflussen. Wie wollen Sie das Scaling-Up-Problem lösen?

Wenn man unter verhaltensbasierter Robotik die Grundidee versteht verschiedenen Verhalten parallel laufen zu lassen, dann ergeben sich da tatsächlich Probleme der Interaktion. Unbedingt zu berücksichtigen ist aber, dass sich die lose gekoppelte Prozesse weitgehend über den Körper und die Interaktion mit der Umwelt selbst koordinieren. Brooks mit seinem Ansatz der Subsumption hatte da mal wieder eine gute Intuition. Wer das ganz brillant in seine Arbeit einbezogen hat, ist der Holk Cruse aus Bielefeld. Als Beispiel: Wenn man klassisch denkt, dann geht man immer davon aus, dass alles von einem neuronalen Zentrum koordiniert werden muss. Cruse hat für gewisse Stabinsekten herausgefunden, dass diese beim Gehen kein Zentrum benötigen, welches die Bewegung der Beine koordiniert.

Wie geht das?

Zum einen ändert sich die Kraft auf allen anderen Beinen, wenn das Insekt ein Bein vom Boden abhebt. Also brauche ich lediglich noch Kraftsensoren in den Beinen, die diese Veränderung messen und ich habe globale Kommunikation der Beine untereinander, aber nicht über das neuronale System, sondern über die Interaktion mit der Umwelt. Und diese Kommunikation kann nun zur koordinierten Fortbewegung verwendet werden. Die sechs Beine sind untereinander neuronal gekoppelt, wobei nicht einmal eine Verbindungen zwischen allen Beinen besteht, sondern die benachbarten und gegenüber liegenden Beine verbunden sind. Wenn das Insekt mit seinen sechs Beinen auf dem Boden steht und ein Bein hebt, dann ändert sich in diesem Moment die Kraftverteilung auf den anderen Beinen und diese werden leicht in die angedeutete Richtung mitgezogen. Dann braucht es nur noch einer positiven Feedbackschleife in den Gelenken, um die Bewegung zu verstärken und das Insekt läuft. Der Witz ist: Die Beine kommunizieren global miteinander, aber eben nicht über neuronale Verbindungen, sondern über die Umwelt! Zugleich nutzen sie ihr Embodiment aus. Es ist hilfreich, sich dieser beiden Vorgänge bei der Konstruktion komplexerer Systeme bewusst zu sein.

Zugleich ein wunderbares Beispiel für „cheap design“.

Ich sage immer: „Die Physik ist gratis.“ Von der Bewegungsabläufen von Insekten ist enorm viel zu lernen. Wenn man einen Schritt weiter denkt, dann kann die Natur gar nicht immer mit zentralen Steuerungen arbeiten. Um bei dem Beispiel zu bleiben: Das sechsbeinige Insekt hat pro Bein drei Gelenke. Wenn zentral die Pfade und Trajektorien von 18 Gelenken berechnet werden müssten, dann wäre das Gehirn des armen Insekts hoffnungslos überlastet. Da ist es viel intelligenter, dass Embodiment auszunutzen.

Funktionieren Gliederbewegungen beim Mensch ebenso?

Wenn von Embodiment gesprochen wird, dann denken viele, dass Steuerung noch viel komplizierte wird, weil ich dann zusätzlich noch physikalische Gesetze berücksichtigen muss und somit mehr Parameter zu optimieren habe. Wenn man das Hand-Arm-Schulter System beim Menschen anschaut, dann fallen zunächst die enorm vielen Freiheitsgrade auf – über 30 Stück. Für einen Control-Engineer ist die Steuerung eines solchen Systems ein Albtraum. Wenn ich aber die Gegebenheiten des Körpers und seine Dynamik ausnutze, dann führt das zu überraschenden Ergebnissen. Lässt man beispielsweise die Hand im Gelenk abknicken, so dass die Fingerspitzen nach unten zeigen, und greift dann zu, dann treibt es die fünf Fingerspitzen automatisch in die Mitte zusammen, was nur durch die natürliche Formung der Gelenkschalen und der Hand bedingt ist. Genauso eine simple Funktion kann man zum Bau einer Robotergreifhand nutzen. Ergo: Wenn die Anatomie stimmt, wir nennen es in der Robotik die Morphologie, dann ist die Steuerung fast trivial, auf jeden Fall viel einfacher.

Die meisten Roboterhände sind aber nicht so konstruiert.

Dass ist ja der Fehler, denn die Steuerung der Finger wird dadurch wahnsinnig kompliziert. Viele Erbauer berücksichtigen die Morphologie der Körper nicht. Warum beispielsweise greifen Sie eine Tasse nicht mit den Handrücken zu Ihnen gekehrt, sondern immer so, wie man eine Tasse halt greift?

Es erscheint mir als die natürliche Bewegung.

Eben. Das Muskel-Sehnen-System hat Eigenschaften wie eine aufgezogene Feder, wenn sie den Arm bewusst nach außen drehen und sie lassen dann los, dann dreht der Arm sich automatisch wieder in die natürliche Position zurück. Und zwar nicht, weil ich das vom Hirn aus steuere, sondern aufgrund der Materialeigenschaften des Muskel-Sehnen-Systems. Dieses System übernimmt für mich eine dezentrale Steuerungsfunktion. Unter Berücksichtigung der Materialeigenschaften wird ein Problem, welches auf den ersten Blick enorm kompliziert aussah, plötzlich ganz einfach.

Bei der Erforschung des Menschen wird ja auch immer mehr fest gestellt, dass der Körper nicht allein vom Gehirn gesteuert wird, sondern Körper und Geist zwei Seiten einer Medaille sind. Nicht alle Vorgänge werden berechnet…

…und sind auch nicht berechenbar! Die klassische KI wurde oft kritisiert, weil gewisse Dinge, zum Beispiel Lernen, als „computationally intractable“ galten, eben schlicht aufgrund ihrer Komplexität in ihrer Gesamtheit als nicht berechenbar. Das ist genau der Punkt: Wenn man alles als reine Rechenaufgaben ansieht, dann führt das schnell an Grenzen. In der realen Welt haben wir anatomische und materielle, halt physikalische Einbettungen, deren Berücksichtigung zu Konvergenzen führt. Wenn ich mich in der Umwelt bewege, dann verarbeite ich ja nicht irgendwelche Inputvektoren mit ihren dazugehörigen Merkmalen, sondern ich habe Sensorstimulationen, die sich kontinuierlich verändern. Zudem ändert sich die Sensorstimulation enorm, je nachdem was ich tue. Der Witz ist der: Wenn ich Wahrnehmung als etwas ansehe, was passiv ist, wo ich passiv dasitze, dann muss ich aus diesem Strom irgendwie Information herausholen. Bei der visuellen Wahrnehmung hieße das dann, den auf mich einflutenden Pixelwust zu verarbeiten. Wenn ich das aber umdrehe und sage, „o.k., ich bin ja ein Akteur, ich kann mit der Umwelt interagieren“, dann komme ich dazu, dass ich durch die Interaktion mit der Umwelt meine Sensorstimulation strukturieren kann.

Ein Beispiel, bitte.

Bleiben wir bei der Tasse. Wenn ich eine Tasse fasse und zum Mund führe, dann passiert enorm viel. Erst einmal habe ich visuelle Stimulation, zudem haptische an den Fingerspitzen, dann Stimulation an den Lippen…

…und wenn Sie dabei reden, verändert sich auch die akustische Stimulation durch die Nähe der Tasse…

Richtig. Dieses Muster ist für einen Moment stabil und normiert. Das ist ja, nebenbei gesagt, eines der großen Probleme der cognitive science. Die proximale Stimulation auf der Retina ist zwanzig Zentimeter vor meiner Nase völlig anders als fünf Zentimeter davor. Trotzdem ist es immer ein und dasselbe Objekt. Wenn man die Ähnlichkeiten zwischen diesen Mustern statistisch analysiert, dann ist die praktisch Null. Irgendwie muss der Mensch das transformieren und wie tut er das? Eben durch die verkörperte Interaktion mit der Umwelt, welche die Sensordaten gewissermassen vortransformiert und damit das Problem um Grössenordnungen vereinfacht. Ich bringe das Objekt in das visuelle Feld, erzeuge multimodale Sensorstimulation und diese Stimulation ist korreliert. Mit der Zeit, das heißt der Übung dieser Bewegung, wird aus der extrahierten Information aus einem Sensorkanal ein partieller Prädiktor für die Sensorinformationen, die ich aus anderen Kanälen extrahiere. So lernen auch Kinder: Erst mit der Übung kann es alleine aus der visuellen Sensorextraktion das Objekt rekonstruieren. Die Anatomie und die Interaktion tragen gewissermaßen gratis zur Lösung bei und das vereinfacht das Lernproblem ungemein. Dies kann ein Schlüssel, wohlgemerkt kann, ein Schlüssel zum Scaling-Up Problem sein.

Nun hatte bei uns die Evolution lange Zeit.

Sicher, deswegen können wir gewisse Bewegung halt nicht machen. Einer Maschine wird es immer besser gelingen eine Schraube einzudrehen als einem Menschen.

Ihre Aufgabe ist also der Bau von Robotern, die mit ihrer ganz eigenen Morphologie, die nicht immer an die menschliche Anatomie angelehnt sein muss, Aufgaben in eng begrenzten Bereichen lösen.

Exakt. Die spezifische Morphologie ist anders, aber das Prinzip der sensormotorischen Koordination gilt genau so. Und das auch mit unterschiedlichen Sensoren, sogar welchen, die in der Natur nicht existieren. Das ist dann Artificial Intelligence.

Die Natur arbeitet ja wohl nicht mit der Trennung von Hardware und Software. Muss diese Begriffsspaltung auch in der Robotik überwunden werden?

Ich bin überzeugt davon, dass die Trennung von Hard- und Software eine artifizielle ist. Die liegt uns aber einfach im Blut, weil man die Software mit dem Denken, die Hardware mit dem Körper assoziiert. Eigentlich ein völliger Blödsinn.

Ich erinnere mich an trinkfeste Wochenenden der Jugend, die ein Freund stets mit der Bemerkung „Format C:/“ einläutete. Seine Festplatte sollte formatiert werden. Die bildgebende Kraft des Computers.

Die Computermetapher wird nicht nur von den Forschern der Künstlichen Intelligenz und der Psychologie verbreitet. Auch die Menschen auf der Straße denkt in dieser Metapher. Wie sollte es denn anders sein, so diese Vorstellung, als nach dem Schema Input-Verarbeitung-Output? Oder, wenn man es verfeinert, Sense-Model-Plan-Act? Wir müssen uns von dem Bild verabschieden, dass natürliche wie technische Systeme Informationen verarbeiten, die von außen reinkommen, dann verarbeiten werden und dann erst ein Handeln erfolgen kann. Aber wie gesagt: Das Erzeugen der Sensorstimulation wird durch die verkörperte Interaktion mit der Umwelt bestimmt. Schon bei den Neuronalen Netzen gibt es auf der konzeptionellen Ebene keine Trennung von Programm und Daten mehr. Auch unsere Gehirn funktioniert nicht so. Wo im Gehirn sind die Programme, wo die Daten? Künstliche Neuronale Netze sind ein Schritt in die richtige Richtung, aber das Embodiment muss dazu kommen. Wenn jemand zu mir kommt und von einem Modell mit Neuronalen Netzen spricht, dann will ich das immer in einem Roboter sehen. In dem von uns entwickelten Analog-Robot existiert diese Trennung eben darum auch nicht.

Spielt die Erforschung des Bewusstseins des Menschen eine Rolle in Ihrer Arbeit? Könnte das Sinn machen, dass ein Roboter ein Selbstbild hat, ein Körperbild von sich? Ist Bewusstsein die Super-Instanz, die über alles wacht oder eher ein Nebenprodukt von dem, was vorher abgelaufen ist?

Ein Philosoph sagte uns einmal, wir hätten das Problem des Bewusstsein in unserem Buch „Understanding Intelligence“ clever umschifft. In der Forschung haben wir uns effektiv damit noch nicht befasst. Ich bin mir aber sicher, dass es wichtig für die zukünftige Arbeit ist, dass Roboter eine „Vorstellung“ von ihren Körpern haben sollten. Wenn sie eine Bewegung ausführen, dann sollten sie eine Verhaltensprognose machen können. Wenn eine Roboter eine sensormotorische Kopplung und stabile Sensormuster hat, dann gibt es gute Gründe dafür, dass dieser Roboter selbst die Sensormuster analysieren und nutzen kann. So kommt man langsam auf eine Ebene, wo man dem Roboter so etwas wie Bewusstsein zuschreiben könnte, wenn man das möchte. Das ist natürlich eine nüchterne Sicht, aber wir Schweizer tendieren dazu. Die Amerikaner würden das wahrscheinlich anders ausdrücken und behaupten, „ja klar, wir haben längst Roboter mit Bewusstsein“. Ein Schweizer würde sagen, dass jetzt „feed-forward Netzwerke für Verhaltensprognosen“ existieren. Die Frage ist zudem, was man meint mit einem Körperbild.

Beim Menschen ist ein Körperbild eine möglichst vollständige Ausdehnung des Ich auf den gesamten Körper.

Dann bleibt die Frage, ob das Ich als zentrale Instanz einen Überblick über den gesamten Körper hat oder ob es keine zentrale Lokalisation des Körperbilds gibt. Die zweite Variante scheint mir plausibler und wenn Roboter in Zukunft wirklich gut sein sollen, dann brauchen sie so ein Körperbild.

Welche Rolle spielt die Parallelität von Sensormotorik und kognitiver Leistung?

Wir haben viel mit Kategorisierungen gearbeitet, die ja die elementarste kognitive Operation ist. Wenn ich keine Unterscheidungen in der realen Welt mache, dann kann ich nicht viel, dann überlebe ich nicht lange. Die Idee dabei war, dass über die Sensormotorik Kategorisierung geleistet wird und darauf aufbauend Kognition gewissermaßen „gebootstrapt“ wird. Rizolatti hat da interessante Experimente mit Primaten durchgeführt, später wurde das auch bei Menschen nachgewiesen. Zwei Menschen sitzen sich dabei gegenüber. Wenn der eine die Hand auf dem Tisch liegen hat und einen Finger hebt, dann soll die zweite Person ebenfalls den Finger heben oder nicht. Im prämotorischen Kortex sind dann bei der zweiten Person gewisse neuronale Areale aktiv und zwar unabhängig davon, ob diese die Bewegung selbst ausführt oder nur anschaut. Das gibt zu Spekulationen Anlass, wie sich so ein Verhalten evolutionär entwickelt haben könnte. Die Hypothese dahinter ist, dass die sensormotorische Entwicklung die Grundlage für die kognitive Entwicklung bildet. Spekulativ, aber hoch interessant.

Ein Hinweis darauf, dass Gehirn und Körper sich evolutionär parallel entwickelt haben?

Sicher. Es ist ja nicht so, dass ich die Morphologie habe und sich das Gehirn dann daran anpasst. In der Natur gibt es immer eine Koevolution von Morphologie und neuronalem Substrat. Wie macht das die Natur? Die Struktur des Gehirns ist ja nicht vorkodiert, denn der Informationsgehalt des Genoms ist dafür viel zu klein. Was allerdings im Genom kodiert ist, sind die Wachstumsprozesse. Und wir versuchen nun diesen Prozess künstlich in Gang zu setzen.

Vielen Dank für das Gespräch.

Gerne, und jetzt machen wir eine kurze Tour durch das Lab.

Das Interview führte Jörg Auf dem Hövel.

Von Jörg Auf dem Hövel ist im discorsi Verlag jüngst das Buch „Abenteuer Künstliche Intelligenz. Auf der Suche nach dem Geist in der Maschine“ erschienen.

Rolf Pfeifer

Prof. Dr. Rolf Pfeifer hat seinen Magister der Physik und Mathematik und seinen Doktorgrad in Computerwissenschaften an der Eidgenössischen Technischen Hochschule in Zürich (ETH), Schweiz, erworben. Nach seiner Promotion arbeitete er drei Jahre an der Carnegie-Mellon University und der Yale University in den USA. Seit 1987 ist er Professor für Computerwissenschaften am Institut für Informationstechnologie der Universität Zürich und Direktor des Labors für künstliche Intelligenz. Sein Forschungsinteresse gilt der „embodied artificial intelligence“, der Biorobotik, autonomen Agenten/mobilen Robotern, der Bildungstechnologie, der künstlichen Evolution und Morphogenese sowie der Emotion.