von Paula Steiner, Nina Vycudilik, Tamara Thin, Paula Raberger
Das Internet der Dinge zeigt sich in 3 vorwiegenden Trends, die sich teilweise unabhängig voneinander entwickelt haben.
1. RFID
Die RFID oder auch Radio-Frequenz-Identifikation ermöglicht, wie der Begriff schon vermuten lässt, die automatische Identifikation bzw. Addressierbarkeit von Personen, Tieren oder Dingen. Eine ältere Version des RFID ist der allseits bekannte Barcode. Bereits während des 2. Weltkrieges wurden Radiowellen zur Identifikation von mit Sendern ausgestatteten Flugzeugen vorgenommen, womit hier der Beginn der Entwicklung der RFID-Technologie zu sehen ist (Bouda, 2012, S.13).
Um RFID nutzen zu können bedarf es eines elementaren Hardware-Teils, dem sogenannten Transponder (RFID-Tag). Dieser Mikrochip besteht aus einem Datenspeicher und einer Antenne. Mittels Radiowellen kann ein Funk-Chip von einem Lesegerät eindeutig und kontaktlos identifiziert werden. Die Tags stellen die Basis zur Verknüpfung von physischen Objekten und Datensystemen dar.
Anwendung: als Mitarbeiterausweis, als unsichtbarer Diebstahlschutz, zur Kennzeichnung von Waren, zur Identifikation und Lokalisierung von Objekten. In der Produktion und auf dem Dienstleistungssektor können diese Chips detaillierte Informationen über Bearbeitungsstatus und Produkteigenschaften übertragen, wodurch Prozesse lückenlos dokumentiert werden können. Durch diese Möglichkeit des Informationsflusses und die Möglichkeit der gleichzeitigen Erfassung vieler Transponder[ wird diese Technik in Verbindung mit dem Internet der Dinge im Handel, in der Industrie 4.0 und in der Logistik bereits angewandt (featured Business, 2017).
2. Ubiquitous Computing
Geprägt wurde dieser Begriff in den 90er Jahren des vorigen Jahrhunderts im kalifornischen Xerox Palo Alto Research Center. Die Computer sollten von den Schreibtischen und Serverräumen weg in den Hintergrund treten. Gelingen sollte dies durch die immer mehr fortschreitende Miniaturisierung der Computerchips (mit trotzdem immer höherer Rechenleistung und einem verringerten Energieverbrauch). Ab diesem Zeitpunkt wird es möglich stecknadelgroße Computer in die Dinge der Umgebung zu implementieren (Sprenger & Engemann, 2015, S.14 f.).
3. Cloud Computing
Die Infrastrukturen und die damit einhergehende Anhäufung und Auswertung großer Datenmengen (Stichwort Big Data) für das sogenannte Cloud Computing sind 2006 entstanden. Als Datenquellen fungieren hier einerseits die Smartphones und Tablets und andererseits ziehen Anbieter wie Google, Facebook, Amazon, Microsoft und Apple ihre Daten aus den angebotenen Services. So liegen beim Streaming (Audio/Video) oder beim Online-Shopping die relevanten Daten in der Cloud (Sprenger & Engemann, 2015, S. 18f.).
Die virtuelle Rechenwolke besteht aus vielen verschiedenen, miteinander vernetzten und verbundenen Rechnern. Bereitgestellt werden z.B. Speicherplatz, Rechenleistung oder Anwendungssoftware. Der Vorteil für den Nutzer besteht darin, dass sich dieser direkt über das Internet in das System einloggen und dieses nutzen kann, ohne die Installation und Betreuung eigener Rechensysteme, was kostenintensiver und aufwendiger wäre (novadex, o.D.).
Bouda, D. (2012). RFID und Barcode. Ersatz oder Ergänzung? Hamburg: Diplomica Verlag GmbH.
Featured Business (30.5.2017). Kleiner Chip – große Wirkung: RFID ganze Branchen optimiert. Abgerufen am 5.1.2019, von https://www.vodafone.de/business/featured/technologie/rfid-effiziente-prozesse/
Novadex GmbH. (o.D.). Definition Cloud Computing – Was ist Cloud Computing? Abgerufen am 7.1.2019, von https://novadex.com/de/glossar-artikel/definition-cloud-computing-was-ist-cloud-computing/
Sprenger, F. & Engemann, Ch. (2015). Internet der Dinge. Über smarte Objekte,
intelligente Umgebungen und die technische Durchdringung der Welt.
Bielefeld: Transcript Verlag.
=