Fazit

•Freitag, 20. Juni 2008 • Kommentar verfassen

Nun, da das Semester vorbei ist, möchte ich den Blog mit einem kurzen, persönlichen Fazit abschliessen. Falls jemand einen inhaltlichen Überblick über das Thema Ubiquitous Computing wünscht, soll er sich den Folien meines Vortrages widmen.

Auf die Grundfragen des Moduls Informationsgesellschaft, -ethik und -politik (IGEP) gebe ich nun kurz und knapp Antwort.

  • Ist dies wirklich eine neue Ära? Ja, die Vernetzung und Digitalisierung läutete eine neue Ära ein.
  • Wenn ja, wodurch zeichnet sie sich technisch aus? Durch Vernetzung, Digitalisierung, Informatisierung, Miniaturisierung, etc. 
  • Welches sind ihre wirtschaftlichen Phänomene? Globalisierung, Rationalisierung, Integration der realen Welt in die digitale Welt, etc.
  • Welche gesellschaftlichen Auswirkungen hat sie? Information Overload, Datenschutzproblematik, Digital Divide, etc.
  • Wer sind die Gewinner und Verlierer? Gewinner ist die New Economy (jedenfalls diejenigen, welche das Platzen der Blase überlebt haben). Zu den Verlierern zählen datenschutzbewusste Konsumenten und die informationelle Selbstbestimmung.
  • Welche neuen Rahmenbedingungen müssen wir stellen (Ethik)? Datenschutzrichtlinien müssen auf der Höhe der technischen Entwicklung gehalten werden. Das Recht auf informationelle Selbstbestimmung muss gewahrt und verteidigt werden. Den Digital Devide gilt es zu bekämpfen.

Hiermit ziehe ich einen Schlussstrich unter den doch eher arbeitsintensiven Lernnachweis „e-Portfolio“. Interessant und gewinnbringend war es vor allem, einmal selber einen Blog zu betreiben. Dieses Soft-Skill setze ich nun auch persönlich ein. Diejenigen, die mich kennen, wissen welchen Blog ich betreibe. Alle anderen sollen für einmal mit meinem persönlichen YouTube-Favoriten vertröstet werden:

„Ein witziges, gut gemachtes Video; doch bleibt einem schnell das Lachen im Halse stecken, gedenk der Möglichkeiten, die Google tatsächlich hätte… Die Frage nach der Macht, die Information verleiht wird im 21. Jahrhundert zu völlig neuen Dimensionen gelangen. Noch nie waren die Auswirkungen so spürbar, so nah, so konkret und so gefährlich.“

Slides zum Referat

•Samstag, 10. Mai 2008 • Kommentar verfassen

 Creative Commons

Bemerkung: Leider wurde die Formatierung der Folien bei der Konvertierung beeinträchtigt

Ambient Intelligence

•Dienstag, 6. Mai 2008 • 1 Kommentar

Als Einstimmung in mein Referat vom Freitag möchte ich euch einen kleinen Einblick in Ambient Intelligence geben. Ziel dieses Forschungsfeldes ist es, mit Hilfe von Prozessoren, Funkwellen und Sensoren den Alltag zu erleichtern.

Als Anschauungsobjekt soll das europäische Projekt Amigo dienen. Eine Art intelligentes Netzwerk für zu Hause.

„This is a video from the EU-IST funded Amigo project. The Amigo project develops an open service oriented middleware architecture for context-aware networked home environments. This video envisions a day in the life of a family living in such an intelligent home environment.“ (IST, 2007)

Ob durch die erhoffte Vereinfachung des Alltages eine positive Veränderung unseres (Freizeit-)Verhaltens erreicht wird, möchte ich einmal in Frage stellen. Bei der „Probandenfamilie“ war jedenfalls weder ein fortschrittliches Rollenbild noch eine aktive Freizeitgestaltung ausmachbar. Aber schliesslich finden sich ja Mobilfunk- und Unterhaltungselektronikindustrie unter den Sponsoren des Projektes.

 

Offene Forschungsbereiche

•Sonntag, 4. Mai 2008 • 2 Kommentare

Laut Informationsforum RFID stehen momentan drei Stossrichtungen im Vordergrund der RFID-Forschung. Es sind dies:

  1. Verbesserung der aktuellen Technologie-Standards
  2. Entwicklung neuer Ansätze
  3. gesellschaftliche Auswirkungen der RFID-Technologie.

Im Detail geht es beispielsweise darum, die Bausteine des Transponders (Chip, Antenne und Trägermaterial) billiger, flexibler und umweltverträglicher zu produzieren. Einen wesentlichen Beitrag dazu sollen Transponder aus Polymeren (PET, PVC, Nylon) leisten.

Bei aktiven Transpondern mit sensorischen Fähigkeiten (z.B. Temperaturmessung) sollen Chip, Sensor und Energieversorgung integriert werden. Letztere stellt eine der grössten Herausforderung dar. Transpondergrösse und Energiespeicherkapazität sind zwei von einander abhängige Variablen, deren positive Eigenschaften divergieren. Entweder man enscheidet sich für kleine Transponder mit geringer Batterielebensdauer oder man wählt grosse Transponder mit längerer Stromversorgung. Valable Lösungen sind Folienbatterien, Energiesparmanagement oder Energy Harvesting.

Als Energy Harvesting bezeichnet man den Energiebezug aus der Umwelt. Laut NZZ (23.04.2008, S. B1) gibt es hierzu piezoelektrische, thermoelektrische und elektromechanische und elektrochemische Ansätze. Interessant ist vor allem die piezoelektrische Effekt, bei dem mechanischer Druck in elektrische Spannung umgewandelt wird. Piezofasern in Kleidungsstücken sollen dereinst genug Energie liefern, um Sensoren zur Überwachung des Pulses zu unterhalten. Diesen Anwendungsbereich des Ubiquitous Computing nennt man auch Wearable Computing.

Ein weiteres RFID-Forschungsfeld ist die „gedruckte“ Antenne. Hier ersetzt elektrisch leitfähige Tinte die traditionelle Antenne. In der selben, molekularen Grössenordnung verhofft man sich grosse Fortschritte durch miniaturisierte Sensoren. Die Verbindung von Sensortechnologie und RFID könnte beispielsweise ereignisgesteuerte Prozesse verbessern.

 

RFID in der Wertschöpfungskette

•Samstag, 3. Mai 2008 • 1 Kommentar

Um einen Einblick in die industriellen Anwendungsmöglichkeiten von RFID zu erhalten, bietet sich folgender Film der MetroGroup an. Es wird gezeigt, wie RFID zur Prozessoptimierung in der Wertschöpfungskette eingesetzt werden kann.

IBM widmet sich in ihrem Film der intelligenten Verpackung. 🙂 Leider darf der YouTube-Film nicht eingebettet werden. Darum hier einfach der Link.

Die Basistechnologie RFID

•Samstag, 3. Mai 2008 • 1 Kommentar

RFID ist ein Akronym für Radio Frequency Identification, was auf Deutsch soviel wie Radiofrequenz-Identifikation bedeutet. Wie der Name schon sagt, ermöglicht diese Technologie den berührungs- und sichtkontaktlosen Datenaustausch und die Identifikation über elektromagnetische Wellen.

Laut einem Grundlagenpapier des Informationsforum RFID besteht die RFID-Systeminfrastruktur aus einem Transponder, einem Sende-Empfangs-Gerät und einem im Hintergrund aktiven IT-System. Kern der RFID-Technologie ist der Transponder. Es handelt sich dabei um einen winzigen Computer-Chip, der mit einer Antenne ausgestattet ist. Integriert sind Chip und Antenne meist in ein Trägerobjekt. Dabei kann es sich um Kreditkarten, Ausweise, Produktetiketten, Fahrzeuge, Tiere oder sogar Menschen handeln.

Eine auf dem Chip gespeicherte Nummer codiert Informationen, die in einer Datenbank des IT-Systems gespeichert sind. So kann eine eindeutige Identifikation des „getaggten“ Objektes sichergestellt werden. Das „Lesen“ des Nummerncodes übernimmt das Sende-Empfangs-Gerät. Es generiert ein elektromagnetisches Feld, das von der Antenne des Transponders empfangen wird. Anschliessend sendet der Transponder seinen Nummerncode an das Sende-Empfangs-Gerät. Dies wiederum leitet den Code an die Datenbank weiter, worauf die Informationen entschlüsselt und ausgegeben werden. Vorteile dieses Data on Network-Ansatzes sind einheitliche Datenstandarts, günstige Transponder und die zentrale Datenhaltung. Haupteinsatzgebiet sind Data Warehouses.

Lesevorgang RFID

Alternativ dazu gibt es aber auch die Informationsspeicherung auf dem Transponder selber (Data on Tag). Statt einer Datenbankanbindung, verwaltet man die Informationen hier dezentral. Vorteile sind die grössere Datenspeicherkapazität der Chips, die Mehrfachverwendung und sensorische Fähigkeiten. Man verwendet „intelligente“ Transponder unter anderem zur Steuerung bei Realtime Logistics.

Ein weiteres Differenzierungsmerkmal bei Transpondern ist deren Aktivität. So unterscheidet man zwischen aktiven und passiven Transpondern.  Ersteren ist eine eigene Batterie eingebaut. Dank dieser autarkten Stromversorgung können aktive Transponder eine Sendereichweite von bis zu 100 Metern erreichen (Einsatzgebiet: z.B. elektronische Mautsysteme). Passive Transponder verfügen über eine Reichweite, die lediglich im Bereich von wenigen Zentimetern liegt. Dafür sind sie kleiner, leichter und müssen nicht unterhalten werden (Einsatzgebiet: z.B. Konsumgüterindustrie).

Silent Commerce II

•Sonntag, 20. April 2008 • 2 Kommentare

Smarte Produkte und Dienstleistungen

Wie die im letzten Blogeintrag skizzierten Gedanken nun betriebswirtschaftlich manifestiert werden können, ist Thema dieses Eintrages. Ubiquitous Computing ermöglicht es, die Abbildungsqualität eines Ist-Zustandes zu erhöhen. Unter Abbildungsqualität verstehen Fleisch et al. (2005, S. 18 ) die aufgabenorientierte Datenqualität, also das Ergebnis aus Datenqualität und Abbildungsmodell. Dank genaueren, aktuelleren und granulierteren Messdaten sind auch effektivere und effizientere Kontrollen möglich, was zu einem qualitativ hochwertigeren Managementkreislauf führt. Dies wiederum ist die Basis für automatische Prozesskontrollen sowie neue smarte Produkte und Dienstleistungen.

Automatisieren lassen sich beispielsweise Kontrollaufgaben bei Warenbuchungen und -checks. Das Modehaus Gerry Weber ersetzte das manuelle Abgleichen von Lieferschein und Paketinhalt (diese waren zuvor aus Kostengründen nur stichprobenartig durchführbar) durch eine automatische Kontrolle mit Hilfe von RFID-Chips. Hierbei handelt es sich um einen problemorientierten Top-down-Ansatz. Eine neue Technologie (RFID) soll einen Prozess inkrementell verbessern. Fleisch et al. (2005, S. 21) sind jedoch der Ansicht, dass solche Vorgehensweisen die Möglichkeiten der neuen Technologie oft nur teilweise ausschöpfen.

Vielversprechender ist der Bottom-up-Ansatz. Er fusst auf den neuen technischen Potenzialen, welche eine gesteigerte Abbildungsqualität liefern. Dieser Mehrwert kann und soll bewirtschaftet werden. Im Fall von Ubiquitous Computing entstehen so „smarte“ Produkte bzw. Dienstleistungen. „Smart“ sind diese insofern, als dass die menschliche Kontrolle an Computerchips abgegeben wird. Bisher war schlicht und einfach nur das menschliche Gehirn in der Lage, reale Objekte kontextuell zu beurteilen. Als Beispiel führen Fleisch et al. (2005, S. 22) die Lagerung von Fässern chemisch hochreaktiven Inhalts auf.

Smarte Produkte sind in diesem Sinne Produkte, die Zusatzfunktionen aus der neuen höheren Abbildungsqualität durch UbiComp-Technologie erzielen. Sie machen ihre Funktionen abhängig von der unmittelbaren Umgebung, […] mit der sie interagieren.“ (Fleisch et al., 2005, S. 22)

Weitere neue Produktfunktionen bieten…

  • …der Werkzeugkoffer, der sich selbstständig auf Vollständigkeit überprüft,
  • …die Lebensmittelpackung, welche die Integrität der Kühlkette sicherstellt oder
  • …die Maschine, die nur mit Originalersatzteilen funktioniert.

Einen Zusatznutzen generieren solche Zusatzfunktionen, wenn sie Status- und Kontextinformationen signalisieren können. Im Bibliotheksbereich wäre dies beispielsweise dann der Fall, wenn ein Buch seine Ausleihstatistiken und seinen (korrekten) Standort anzeigen würde.

Beispiel_Track and Trace von DHL

Für Unternehmen lukrativer als der alleinige Verkauf von Produkten ist gemäss Fleisch et al. (2005, S. 26) die Koppelung mit „produktbezogenen Dienstleistungen“. Mit Hilfe von UbiComp-Technologien können bisher nicht messbare Prozesse messbar und somit handelbar gemacht werden. Kombiniert man diese beiden Erkenntnisse, so entstehen smarte Dienstleistungen (DL). Beispiele sind:

  • Kontroll-DL: Track & Trace (siehe Bild), Diebstahl- und Fälschungssicherung, Rückverfolgung
  • Leasing-DL: dank genauerer Abbildungsqualität wird Nutzung und nicht Besitz verrechnet (Road Pricing)
  • Risiko-DL: Rekonstruieren eines Unfallherganges und Klärung der Schuldfrage mit Crash Recorder
  • Informations-DL: kontextsensitive Informationen (Besucherinformationssystem, Geotagging)

Technorati-Tags: ,,,,

Silent Commerce I

•Dienstag, 15. April 2008 • 1 Kommentar

In diesem Beitrag möchte ich auf betriebswirtschaftliche Aspekte des Ubiquitous Computing eingehen. Das Hauptaugenmerk soll dabei auf die betriebliche Informationsverarbeitung gerichtet werden. In diesem Bereich vollzieht sich momentan der Wandel von sichtkontaktbasierten Barcode-System hin zum auf RFID basierenden Silent Commerce.

Medienbruch

Laut Fleisch, Christ und Dierkes (2005, S. 3) offenbaren sich in ökonomischen Prozessen unter anderem folgende Probleme:

  • Out-of-Stock: nachgefragte Artikel sind nicht an Lager, was Umsatzeinbussen zur Folge hat
  • Shrikage: unkalkulierte Bestandesreduktionen durch Diebstahl und administrative Fehler
  • Fälschungen/Imitate: Umsatzeinbussen bei Originalmarken, Risiken bei Medikamenten und Fahrzeugersatzteilen
  • Verwechslung: vermeidbare Todesopfer in Spitälern durch Fehlmedikation
  • Rückrufaktionen: fehlerhafte Produkte bei Serienproduktion präziser rückrufbar, dadurch Kosteneinsparung

Diese Problemfelder können mit den aktuellen Techniken der betriebswirtschaftlichen Informationsverarbeitung nicht zufriedenstellend gelöst werden. Grund ist gemäss Fleisch et al. (2005, S. 4) die „Lücke“ zwischen der realen und der digitalen Welt, also der Medienbruch, beziehungsweise die magelhafte Integration. Zur Lösung dieses Problemes initiierten nahmhafte Unternehmen um die Jahrtausendwende sogenannte Auto-ID Centers (Beispiele: autoIDlabs, EPCglobal, M-Lab).

Integration dank UbiComp

Anhand von vier Modellen zeigen Fleisch et al. (2005, S. 5-15) auf, dass Ubiquitous Computing der logische Schritt zu einer besseren betrieblichen Informationsverarbeitung ist.

  1. neue Informationssystemgeneration (z.B. RFID) bringt eine gesteigerte Integrationstiefe der Geschäftsprozesse (Silent Commerce).
  2. Schliessen der Lücke (Medienbruch) zwischen realer und digitaler Welt mit Hilfe von Sensoren und Aktuatoren.
  3. Erreichen eines geschlossenen digitalen Managementregelkreises (Point of Creation, Point of Action) zum Real Time-Management.
  4. Erreichen einer erhöhten Datengranularität (Dimensionen: Zeit, Objekt, Ort, Inhalt) hinsichtlich des Zustandes der realen Welt.

Summa summarum lässt sich die reale Welt dank Ubiquitous Computing kosteneffizient und mit allen Einzelheiten digital integrieren. So entstehen am Point of Creation (POC) vielschichtige Daten, die am Point of Action (POA) zu besseren Entscheidungen führen sollen.

Dezentrale Netzwerke und Nanotechnologie

•Mittwoch, 9. April 2008 • 1 Kommentar

Als gegen Ende der 90er Jahre das Internet seinen ersten Kulminationspunkt erreicht hatte und sich gleichzeitig die mobile Telefonie etablierte, eröffneten sich neue Möglichkeiten. Anwender konnten nun – zumindest theoretisch – mit ihren Geräten von fast überall auf das Netzwerk zugreifen.

Mittlerweile sind die meisten Geräte fähig, untereinander zu kommunizieren. Da sich Anwendungen und Daten oft auf Netzwerkservern befinden, postuliert der Soziologe Manuel Castells, dass sich die Computer-Intelligenz im Netzwerk selbst befindet (2004, S. 56).

Vinton Cerf, einer der Väter des Internets, visionierte 1997, dass es „in der zweiten Hälfte des nächsten Jahrzehnts – das heisst zwischen 2005 und 2010 – eine neue (technologische) Triebkraft geben wird: Milliarden von Geräten, die an das Internet angeschlossen sind“ (Castells, 2004, S. 57).

„During the latter half of the next decade, there will be a new driver: billions of devices attached to the Internet.“ (Cerf, 1997)

Cerfs Vision hat sich insofern bewahrheitet, als dass Milliarden von Geräten über einen Internetanschluss verfügen. Inwieweit diese Zugänge jedoch bei mobilen Produkten benutzt werden, darf aufgrund der hohen Tarife bezweifelt werden.

Für Castells (2004, S. 57) beruht nun der nächste Entwicklungsschritt auf der Nanotechnologie. Elektronische Schalterelemente in Computer-Chips sollen chemische Reaktionen anstelle von Licht verwenden. Analog zu den Vorgängen in den Synapsen (Kontaktstellen zwischen Nervenzellen) könnten Signale über Moleküle transferiert werden. Dank dieser molekularen Elektronik dürften „die physikalischen Beschränkungen der zunehmenden Dichte auf Silizium-Chips zu überwinden“ (ebda.) sein.

Dies wiederum würde den Beginn eines neuen, durch x-fache Leistungsstärke und Miniaturisierung geprägten, Computerzeitalters einläuten. Castells zitiert diesbezüglich die Informatiker Hall und Markoff, die Welten voll von mikroskopisch kleinen Informationsverarbeitungsgeräten voraus sehen. Milliarden von Computern sollen allgegenwärtig und „wie Farbpigmente an der Wand“ (Hall, 1999; Markoff, 1999) verteilt sein.

Mark Weisers Vision des Ubiquitous Computing wäre dann – hinsichtlich der Abdeckung – bei weitem übertroffen. Computernetzwerke wären dann Teil unserer Umgebung, ja sogar Teil unserer selbst. Die Embodied Reality wäre Realität. Die Computer würden zwar aus dem Blickfeld verschwinden, jedoch mehr Kontrolle denn je über unser Leben gewinnen.

Konsequenzen der Vision

•Montag, 24. März 2008 • 1 Kommentar

„[…] only when things disappear in this way are we freed to use them without thinking and so to focus beyond them on new goals.“ (Mark Weiser, 1991)

Für Weiser (1991, S. 94) stellt der Elektromotor ein gutes Beispiel dar, wie Technologien in den Hintergrund rücken und ubiquitär werden können. Anfangs trieb ein riesiger Motor zahlreiche einzelne Maschinen an, heute sind unzählige, kleine Elektromotoren in einer Maschine, wie beispielsweise dem Auto, integriert. Meist benutzen wir solche Elektromotoren unbewusst und nehmen sie oft schon gar nicht mehr wahr. Diesen Zustand der Ubiquität strebt Weiser zu Beginn der 90er Jahre auch im Bereich der Computer an.

Im Gegensatz zur „Virtual Reality“, bei der man virtuelle, durch den Menschen begehbare Welten im Computer kreiert, soll sich beim Ubiquitous Computing der Computer in die menschliche (Um-)Welt integrieren. Weiser erwähnt in diesem Zusammenhang den Begriff der „embodied reality„.Weiser_tab pad board

Zwei Voraussetzungen müssen die Computer eines ubiquitären Netzwerkes laut Weiser erfüllen: Kontextsensitivität und eine hinsichtlich der Aufgabe massgeschneiderte Grösse. Weiser und seine Leute vom PARC entwickelten Zettel (tab), Notizblock (pad) und Tafel (board). Um Informationen jederzeit und überall abrufbar zu machen, bedürfe es der Kommunikation und Kooperation unter den Rechnern.

Auf dem Bild befinden sich vier tabs auf dem runden Tisch, pads in den Händen der Personen und das board an der Wand.

Als zentrale Herausforderung seiner Vision identifiziert Weiser schon im Jahre 1991 die Wahrung der Privatsphäre. Meistern will er sie mit Hilfe der Kryptographie und digitaler Pseudonyme.

Am wichtigsten ist es Weiser jedoch, dank Ubiquitous Computing das Problem des Information Overloads, also der Informationsflut, lösen zu können. So werde der Gebrauch von Computern ebenso entspannend, wie ein Waldspaziergang. Dabei weist Weiser darauf hin, dass während eines Spazierganges mehr Informationen auf eine Person einwirken, als in einem Computersystem enthalten sind.

„Machines that fit the human environment, instead of forcing humans to enter theirs, will make using computer as refreshing as taking a walk in the wood“ (Weiser, 1991)

Technorati-Tags: ,

Die Vision des Mark Weiser

•Sonntag, 16. März 2008 • 2 Kommentare

Schöpfer des Begriffes Ubiquitous Computing ist Mark Weiser (1952-1999). Im Jahre 1988 umschrieb er damit den visionären Zustand der vollständigen Integration von Computern in den Gegenständen des täglichen Lebens. An Popularität gewann der Terminus drei Jahre später anlässlich der Publikation des Artikels The Computer for the 21st Century im Scientific American. Da dieser Aufsatz als Grundlagentext angesehen wird, soll ihm ein Blogeintrag gewidmet werden.

„The most profund technologies are those that disappear. They weave themselves into fabric of everyday life until they are indistinguishable from it.“ (Mark Weiser, 1991)

Dieses Zitat markiert den Anfang des Artikels und zugleich den Kern Mark Weisers Vision. Es handelt davon, dass die Computer der Zukunft ubiquitär, also allgegenwärtig, werden.  Sie agieren unsichtbar aus dem Hintergrund und unterstützen den Menschen permanent und doch auf unauffällige Art und Weise. Diese allgegenwärtige Informationsversorgung soll es den Menschen ermöglichen, den zunehmenden Informationsbedarf und die steigende Informationsflut des Informationszeitalter sicher meistern zu können.

Für Weiser (1991, S. 92) stellt die Schrift die erste wirkliche Informationstechnologie (IT) dar. Das Codieren von Informationen in Symbolen setze die Information über individuelle geistige Grenzen hinweg. Die Allgegenwärtigkeit der Schrift – „the constant background presence of these products of literacy technology“ (Weiser, 1991) – habe zur Folge, dass wir die darin enthaltenen Informationen nicht mehr aktiv und bewusst abrufen müssen, sondern passiv und mehr oder weniger unbewusst wahrnehmen.

Die siliziumbasierte IT hingegen ist laut Weiser im Jahre 1991 noch längst nicht Teil der alltäglichen Umwelt. Die unzählig abgesetzten Personal Computer verharren noch immer in einer Welt für sich. Weiser geht in seinem Artikel sogar soweit, die Idee des PC als Sackgasse zu bezeichnen. Als Lösung schwebt Weiser und seinen Kollegen vom PARC eine neue Haltung zum Computer vor, „die den Menschen in den Mittelpunkt stellt und die Computer im Hintergrund verschwinden lässt“ (1991, S. 92).

Diese neue Denkweise nennt Weiser Ubiquitous Computing.

Zum Einstieg ins Thema

•Mittwoch, 27. Februar 2008 • 3 Kommentare

Gemäss Fleisch und Mattern (2005) gibt es eine Vielzahl von Begriffen für die Vision einer Welt, in der die Computer entmaterialisiert und völlig in jeglicher Art von Alltagsgegenständen aufgegangen sind. Von Internet der Dinge über Ubiquitous Computing, Pervasive Computing bis hin zu Ambient Intelligence und Silent Commerce. Die mit Sensoren versehenen, vernetzten, sogenannt „smarten“ Objekte bilden die Knoten des Internet der Dinge.

Voraussetzung dieser Vision sind Breitbandinternet und Miniaturisierung, welche in den letzten Jahren zu ihrem Durchbruch kamen und in naher Zukunft den Siegeszug vermutlich fortsetzen werden. Durch die Penetration der Märkte und den harten Konkurrenzkampf in der IT-Branche dürften auch die Preise weiter fallen. So wird der Massenmarkt weiter expandieren können.

Einen weiteren gewichtigen Punkt stellt die Etablierung der Basistechnologie Radio Frequency Identification dar. Dank RFID werden normale physische Güter zu smarten Objekten. Im Gegensatz zur Vorgängertechnologie des Barcodes verfügt RFID über einige Vorteile, wie beispielsweise die sichtkontaktlose Kommunikation. Auf Vor- und Nachteile von RFID wird im Rahmen dieses Blogs jedoch zu einem späteren Zeitpunkt eingegangen.

Aufgrund dieser Entwicklungen hat sich die Utopie der „Rechnerallgegenwart“ (Wikipedia, 2008) zur realisierbaren Vision, ja sogar zur bereits realisierten Mission gewandelt.

Bei allen ökonomischen Vorteilen von Ubiquitous Computing im Allgemeinen und RFID im Speziellen darf jedoch der Aspekt des Datenschutzes nicht vergessen werden. Die Privatsphäre der Konsumenten muss gesichert sein; es darf nicht zu einer Gesellschaft der „Gläsernen Kunden“ kommen.

Diese und wahrscheinlich viele weitere Themen werden in diesem Blog eingeführt, analysiert und nicht zuletzt durch Sie als Prosumer hoffentlich auch kommentiert, kritisiert und ergänzt.

Trends in der Informationstechnologie

•Mittwoch, 20. Februar 2008 • 2 Kommentare

Notizen anlässlich des Vortrages von Walter Hehl (ehem. IBM Research) am 15.02.2008 in der HTW Chur

 Walter Hehl

Haupttriebfeder hinsichtlich aktueller IT-Trends ist laut Hehl die Entmaterialisierung, respektive Miniaturisierung. Diese beiden Stichwörter sind wesentliche Merkmale des sogenannten Pervasive Computing, welches auch Ubiquitous Computing, Ambient Intelligence oder Internet der Dinge genannt wird.

Den grössten Erfolg verbuchte die „allgegenwärtige, mitfühlende und smarte“ Technologie bisher im Bereich der mobilen Telekommunikation. Kennzahl hierfür sind 2,4 Mrd weltweit verkaufte Handys.

Ubiquitous Computing in Verbindung mit mobiler Telefonie hat folgende Facetten:

  • people sensors (Terminkalender, Biometrik [bspw. Diabetik])
  • place sensors (Videokamera)
  • things sensors (RFID)
  • business sensors (Werbung)

Der Hype um die seit 1994 erhältlichen RFID-Chips ist hingegen verflogen und hat teilweise Ernüchterung Platz gemacht. Der Vorteil von Radio Frequency Identification ist, dass man Produkte bis auf die individuelle Stufe hinunter identifizieren und mit Eigenschaften ausstatten kann. Nachteilig wirken sich unter anderem jedoch die hohen Kosten der RFID-Chips aus. Mittlerweile gibt es RFID-Chips, die nicht grösser sind als 40 Mikrometer. Die DARPA unterhält ein Programm mit dem Namen Smart Dust. So soll es möglich werden, alle Produkte mit einem Chip auszustatten und individuelle Produktehomepages zur Rückverfolgung und Kontrolle anzubieten. „All objects will get IDs and homepages […] and sensors.“

Anwendungsgebiete von RFID sind beispielsweise:

  • Micro Risks (Risikoprämien/Versicherung)
  • Micropayments (Roadpricing, digitale, sensorgesteuerte Stromzähler und -verteiler)

Diese Anwendungen sind technisch realisierbar. Was aus Sicht der Industrie noch fehlt, ist die direkte Anbindung der Elektronik an das humane Nervensystem. Tatsache ist, dass zu den realen Welten virtuelle hinzu kommen. Es entstehen „verstärkte“ Realitäten, sogenannte Augmented Realities. Dies bedingt einen neuen Verhaltenscodex, Wegweiser und Policies.

 

Presentity

Dieses Modell visualisiert die drei Bausteine des Kunstwortes Presentity, der „Wolke aller Eigenschaften, die man trägt“ (Hehl 2008). Es sind dies:

  1. Identität und Eigenschaften des Gerätebesitzers
  2. momentaner Aufenthaltsort
  3. Umgebungskontext

Ergebnis dieser drei Eckpfeiler ist die Generierung kontextsensitiver Mehrwerte. So stehen dem Benutzer personalisierte, aktuelle und lokalitätsbezogene Informationen zur Verfügung.

Als Beispiel kontextsensitiver Informationsdienste nannte Hehl ein „smartes“ Mobiltelefon. Dieses gleicht die persönliche Bücherwunschliste des Telefonbesitzers mit den Beständen von Bibliotheken/Buchhandlungen ab, sobald man letztere betritt.

Ein andere Projekt dient dem logistischen Management von Containernschiffen. In Verbindung mit Google Earth gewährt das Programm Einblick in den physischen Zustand und die globale Position von Frachtcontainern.

Ein bezüglich der Lokalisierung vergleichbares Mashup entwickelten zwei Studenten der ZHAW im Jahre 2007, indem sie den Flugverkehr im Grossraum Zürich visualisierten. (Berichte im Tages-Anzeiger vom 20.11.2007 und vom 03.03.2008 )

Gegen Ende des Referats ging Hehl noch auf folgende Themen ein:

  • Event Processing bedeutet im Kontext des Ubiquitous Computing, dass Sensorquellen Informationen liefern, welche von Runtime Engines analysiert werden. Auf Grundlage dieser Informationen sowie vorgängig definierter Regeln entscheidet das System dann, an welcher Stelle es mit der Prozessierung des Algorithmus fortfährt.
  • History Flow: Visualisierung des Bearbeitungsprozesses von Wikipedia-Artikeln
  • Social Network Analysis (Social Computing): Analyse und Visualisierung von Beziehungen
  • Daniel Boorstin (1961) schrieb über Amerikaner: „We risk being the first people in history to have been able to make their illusions so vivid, so persuasive, so ‚realistic‘ that they can live in them. We are the most illusioned people on earth.“ (Bericht in der New York-Times)

Das Internet der Dinge

•Montag, 11. Februar 2008 • Kommentar verfassen

Heise meldete am 18.11.2005 : Laut der Vision von Nicholas Negroponte (MIT) werden anstelle der Menschen bald die Dinge übers Netz miteinander kommunizieren („Dinge [werden] über andere Dinge mit Dingen reden“). Voraussetzung dafür ist jedoch die Synthese von RFID-Technik, Sensorik, Embedded Intelligence und Nanotechnologie. Ansonsten bleibt man auf dem Stand „dummer“ RFID-Technologie stehen.  …

weiteres folgt später…

Definition

•Montag, 11. Februar 2008 • Kommentar verfassen

Gemäss Wikipedia bezeichnet der englische Begriff Ubiquitous Computing (UbiComp) die Allgegenwärtigkeit (lat. ubique = überall; engl. ubiquity) der Informationsverarbeitung im Alltag von Menschen. Es wird auch der Begriff „Internet der Dinge“ verwendet.