Kategorie Networking

IPX2023 – Network Technology Virtual Conference

GET CONNECTED FOR FUTURE BUSINESS! 

Die Bedeutung des Netzwerks geht jetzt bereits weit über die Verbindung von Clients und Servern hinaus. Das Netzwerk sorgt mehr und mehr für essentielle Verbindung und ist unverzichtbares Rückgrat für Resilienz und Agilität. Nur so lassen sich umfangreiche Cloud-MigrationenWAN-VernetzungenHomeoffice– und Remote-Work-Anbindungen, Edge Networking und IoT – oder kurz: die Anforderungen von heute und morgen – gewinnbringend realisieren.

Bei der IPX2023 werden eben diese Anforderungen mit Erfahrungen aus dem Markt gegenübergestellt und eine Brücke zu neuen Trends und der Entwicklung unterschiedlichster Dienstleistungen & Produkte geschlagen. Die Registrierung und spätere Teilnahme ist kostenlos.

Save the Date: 22.03.2023

Namhafte Partner wie HPE Aruba, Extreme Networks, Juniper, Huawei, riverbed und Sophos begleiten die Technologiekonferenz und liefern wertvolle Beiträge zur Entwicklung im Netzwerk der Zukunft, den Trends von morgen – aber auch kontroverse Sichtweisen auf die künftige Entwicklung.

Netzwerkstrategie 2.0: Mega-Trend Managed Network Services

Am 22.03.2023 werden die neuesten Trends im Bereich Connected Edge, Campus Networking, SaSe, SD-WAN, 5G und weiteren Themenbereichen vorgestellt und heiß diskutiert. Als einer der Teilnehmer ist es mir eine Ehre, dieses Event auch persönlich begleiten zu dürfen und in der Panel-Diskussion zum Thema Netzwerkstrategie 2.0: Mega-Trend Managed Network Services zu ins Gespräch mit weiteren Technologie-Enthusiasten im Netzwerkumfeld zu kommen.

“IT-Infrastrukturen werden nicht zum Selbstzweck betrieben, sondern dienen immer einem übergeordneten Ziel.”

Daniel Lengies, Teamleitung Datacenter Infrastructure bei michael wessel

Fokusthemen werden sein:

  • VoIP, UCC und SD-WAN als Vorreiter: Wo geht die Reise in Sachen Managed Network Services hin?
  • Do-it-Yourself vs. Outsourcing: Wann und für wen eignet sich welcher Managed Service?
  • Netzwerk-Parship: Auf was man bei der schwierigen Service-Provider-Partnerwahl achten sollte

Mein Ausblick auf das Event

Ich freue mich drauf, mit anderen Experten mit ganz unterschiedlichen Blickrichtungen über aktuelle Entwicklungen und die Zukunft des Netzwerkes diskutieren zu dürfen, nachdem einige spannende Keynotes gehalten worden sind. Ob und wann eine Entscheidung für ein Managed Network Service sinnig ist, was bei der Auswahl des richtigen Partners entscheidend ist und welche Entwicklungen die Netzwerkwelt von morgen prägen werden – all das und noch viel mehr gibt es am 22. März 2023 bei der IPX2023 zu bestaunen.

Jetzt noch schnell anmelden!

Sei schnell und melde dich noch schnell kostenfrei an! Erfahre, wie das Netzwerk sich weiterentwickelt und wohin die gemeinsame Reise in einer immer enger vernetzten Welt führt.

Kolumne: Technische Evolution verändert den Alltag

Technologie hat unser tägliches Leben in den letzten Jahrzehnten grundlegend verändert. Von den ersten Computern und Handys bis hin zur Digitalisierung und dem Internet of Things (IoT) hat die Technologie unser Leben einfacher, bequemer und vernetzter gemacht. Ein Kurzabriss.

Vom Luxus zu Alltagsgeräten

In den 80er und 90er Jahren war der Computer noch ein Luxusgegenstand, den nur wenige besaßen. Heute ist er ein unverzichtbarer Bestandteil unseres täglichen Lebens und findet sich in nahezu jedem Haushalt. Mit dem Aufkommen des Internets und den ersten Online-Diensten wie E-Mails, Foren und Chat-Lösungen hat sich auch die Art und Weise, wie wir kommunizieren und Informationen austauschen, stark verändert. Da waren in der frühen Zeit IRC als “Internet Relay Chat”, ICQ, MSN und weitere Jabber-Clients der späten 1990er bzw frühen 2000er. Mit dem Smartphone hat einige Jahre später eine nutzerindividuelle Migration Richtung des Mobilgeräten stattgefunden. Nachdem Foren, Facebook, die in Deutschland kurzweilig üblichen “VZ”-Netze (SchülerVZ, StudiVZ, MeinVZ) immer weiter in den Hintergrund gerieten, haben sich die praktischen Taschen-Chatclients mit Zusatzfunktionen, die früher undenkbar waren wie ein Lauffeuer verbreitet. Animierte Emojis, kostenlose Sprach- und Videotelefonie über Ländergrenzen hinweg – all das war lange undenkbar. Mit WhatsApp, Threema, Signal, Telegram und wie sie nicht alle heißen hat der PC als primäres Kommunikationsmedium im Alltag ausgedient. In der Unternehmenskommunikation bleibt die E-Mail und der Mailverkehr noch deutlich länger präsent – da hier die Rechtssicherheit Vorrang hat und durch den schmalen Grat zwischen Anonymität und Authentizität bei Messengern Nutzer nur bedingt eindeutig identifizierbar sind. Teils auch aus gutem Grund, um auch in Ländern, in denen die Meinungs- und Pressefreiheit keinen hohen Stellenwert hat ein für die Nutzer sicheres Kommunikationsmedium zu bieten. Rechtssichere Chatclients sind daher bisher nicht verbreitet.

Die Grundsteine für eine mobile-first-Entwicklung

Mit der Einführung des ersten iPhones im Jahr 2007 und dem Aufkommen von Smartphones hat sich die Technologie noch erheblich weiter und vor allem schneller entwickelt. Plötzlich konnten wir von überall aus auf das Internet zugreifen, E-Mails abrufen und Nachrichten senden. Uns navigieren lassen, Fotos mit mittlerweile brauchbarer, aber anfangs ganz gruseliger Qualität aufnehmen und sofort verschicken. An Freunde, Verwandte, Kollegen – an alle, denen wir etwas mitzuteilen und zu zeigen haben. Die Integration von GPS, Kameras und anderen Funktionen hat unser tägliches Leben was Vieles angeht noch bequemer gemacht.

selective focus photography of person holding turned on smartphone
Photo by Lisa Fotios on Pexels.com

Disruption durch Evolution

Aber auch zeitweise entstandene Märkte wegrationalisiert oder mindestens stark geschwächt. Wo in den 2000er- bis frühen 2010er-Jahren Navigationssysteme eigenständige, teils teuer zu erwerbende, meist kaum oder nur unwirtschaftlich zu aktualisierende Klotzgeräte waren, schmiegen sich mittlerweile GoogleMaps, die Apple-Karten oder andere Drittanbieter von Navigationsapps ganz leichtfüßig auf den kleinen Helferlein in unseren Taschen. Updates? Sind systemisch drin. Immer aktuelle Karten. Für lau. Wer – abgesehen für Sonderlösungen (LKW, besondere Routenführung für z.B. hohe Wohnmobile o.Ä.) schafft sich noch ein eigenständiges Navigationsgerät an? Wenn, sind diese meist in aktuellen Fahrzeugen so oder so verbaut oder können über CarPlay und Android Auto einfach und schnell vom Mobilgerät auf das Infotainment-System gelegt werden.

Ein anderes Beispiel: Der Bereich des Musikkonsums: Wie viele CDs man sich gekauft hat – und dafür am Releasedatum der Lieblingsinterpreten im lokalen Shop Schlange gestanden hat! Danach wurden diese lange als MP3-Player und der iPod publik wurden selbst als MP3 gerippt und in iTunes und co. eingepflegt, um das Album auch mobil genießen zu können. Ohne klobiges Wiedergabegerät. All das gehört der Vergangenheit an. Und auch da: Musik hat heutzutage jeder immer dabei und sogar ganz einfach, drahtlos auf mobile Lautsprechersysteme zu übertragen.

Ein Blick zurück

Früher hatte ich – für die Zeit unglaublich fortschrittlich – einen kleinen, klappbaren Lautsprecher mit Klinkenanschluss. Dieser war batteriebetrieben mit 4x 1,5V-Batterien, die ständig leer waren – und immer mit einem Kabel am Discman anzuschließen. Das Kabel hatte irgendwann einen Wackelkontakt, sodass Musikhören damit zur Tortur wurde, wenn nicht alles still und bewegungslos in der Ecke liegen konnte. Oft wollte man sonst auch mobil – in Auto oder Bahn – Musik hören. Problemlos ging das aber nur, wenn man einen Discman mit dem sog. “AntiShock”-Schutz besaß, was das Auslesen von optischen Medien bei Bewegung durch einen Pufferspeicher (quasi einen Cache für physische Medien) ermöglichte. Sowas gehört dank der Entwicklung neuer Drahtlosstandards (WLAN, 4G/5G, Bluetooth), besserer Akkutechnologie, guter, verlustarmer Komprimierungstechniken wie MP3 und AAC und mobil nutzbaren Diensten wie Spotify, Apple Music oder Amazon Prime Music der Vergangenheit an. Wie viele Alben gleichzeitig mit dem iPod und MP3-Playern den Weg in die Hosentasche gefunden haben, war bemerkenswert. Heute ist es Standard. Musik-CDs sind mittlerweile ein Auslaufmodell, der Markt wurde umgekrempelt.

Digitalisierung, IOT, SmartHome & Car2x

Mit der Digitalisierung und dem Internet of Things (IoT) hat die Technologie noch einmal einen Schritt vorwärts gemacht. Heute können wir nicht nur mit unseren Geräten mit anderen Menschen kommunizieren, sondern auch mit unseren Haushaltsgeräten und sogar mit Fahrzeuge. Beziehungsweise diese untereinander und mit Straßenverkehrselementen. Zumindest ist dies technisch machbar, hat aber noch keinen (massentauglichen) rechtlichen Rahmen in Europa. Dies hat zu einer völlig neuen Art der Interaktion und Kontrolle geführt, die unser Leben einfacher und bequemer gemacht hat.

Früher waren stets teure Mehrdrahtverkabelungen für erste Automationen im Haushalt nötig, die Reichweite von den meisten Funklösungen war deutlich stärker limitiert als heute und die Verknüpfung unterschiedlicher Gewerke zu einer Gesamtlösung (Audio, Video, Steuerung von Rollladen, Heizung bzw. Klimatisierung und Lichtern) bietet eine völlig neue Welt des Alltagsluxus. Früher hat man sich vielleicht darüber lustig gemacht, dass jemand fernbedienbare Steckdosen genutzt hat. Heute ist es normal – und bietet viele Mehrwerte. Neben Schalt- und Messfunktionen sind auch umfassende Automatisierungen für einen Massenmarkt verfügbar geworden. Es lassen sich so mehr oder weniger aufwändige aber alltagserleichternde Automationen erstellen – und das ohne exorbitante Einstiegskosten oder Wände, die dafür aufgestemmt und wieder verschlossen werden müssen. Außer klassischer Bewegungsmelder hat früher kein System früher angefangen zu arbeiten, weil man zuhause ist oder sich selbstständig ausgeschaltet, weil man weggefahren ist. Heute ist das alles keine Zukunftsmusik mehr.

Die Überwachung des eigenen Zuhauses mit IP-Kameras ist nie einfacher gewesen, als aktuell mit HomeKit Secure Video. Und das, ohne sich lokalen Speicher hinstellen und warten zu müssen. Auch die Sicherung der eigenen vier Wände ist somit erschwinglicher und vor allem laientauglich geworden.

Vom geschäftszentrierten Kauf zum heimzentrierten Kauf

Dass Rechtsgeschäfte (Einkäufe, Verträge) bequem vom Sofa zuhause aus abgeschlossen werden können, man das eine Produkt, was man gern hätte, einfach online bestellen kann und innerhalb weniger Stunden bis Tage ist es da – all das bietet unglaublich viele Vorteile für den Kunden, den Endanwender. Aber auch hier werden Märkte aufgerüttelt. Grade in kleinen Städten sterben Innenstädte aus, weil sich bei enormen Energiekosten und steigenden Mieten lokale Geschäfte kaum noch ein Unternehmer leisten kann, wenn er nicht Franchise-Nehmer einer großen Kette ist.

Leider werden durch solche Entwicklungen auch kleine mittelständische Unternehmen seltener. Dafür können Konzerne oft mit besseren Arbeitsbedingungen, höheren Löhnen und einem geringeren Betriebsrisiko bei den Mitarbeitern und Bewerbern punkten. Aber es verändert die Art des Umgangs. Den Tante-Emma-Laden um die Ecke hat man auch für den Plausch nebenbei, Dorftratsch und Menscheleien aufgesucht. Ob ich zu Rewe 1, Rewe 2, Rewe 3 oder zum Aldi, Lidl, Edeka nebenan gehe – das Persönliche gerät dort in den Hintergrund.

Natürlich wird es weiterhin kleine Mittelstandsunternehmen geben, aber diese haben eine härtere Konkurrenz als vor einigen Jahren bis Jahrzehnten. Und sich in einem Nischenthema stark hervorzutun wird umso wichtiger. Kleinere Unternehmen müssen spezialisierter auf den Markt reagieren, da größere diesen bereits lange und deutlich effizienter in Massenmärkten bespielen können.

Apropos bequemer Einkauf

Neue Arbeitskultur = neue Werte?

Genauso haben Unternehmen momentan durch Buzzwords wie “New Work”, einem heimzentrierten Arbeitsplatz (wo möglich) und lautwerdenden Forderungen rund um Diversität mit anderen Hürden zu kämpfen. Wenn ich so oder so von zuhause arbeite – ist es nicht dann egal, für wen? Möglicherweise tue ich bei einem anderen Arbeitgeber genau das Gleiche, aber kann von anderen Dingen profitieren als bisher.

Kultur ist hier der Schlüssel zum Erfolg. Verfügt ein Unternehmen über ein attraktives Unternehmensprofil, was die Vereinbarkeit von Familie und Beruf, Wünschen und Sorgen der Mitarbeiter aufgreift und ernst nimmt, ist eben genau das Zwischenmenschliche und der Umgang, die Wertschätzung das, was den Unterschied macht.

Neue Medien, neue Werte?

Wann hast du das letzte Mal in einem Restaurant dein Smartphone erst zum Bezahlen aus der Tasche geholt? Auch das kann Wertschätzung sein – zuhören und im Moment leben. Du würdest es vermutlich auch komisch finden, wenn dein Gegenüber beim Essen im Restaurant die Tageszeitung rausholt und das Gespräch immer wieder absterben lässt. Aber genau das passiert laufend mit mobilen Geräten im Alltag. Teils, weil mittlerweile viel darüber läuft, es ggf. auch dienstlich relevant ist. Aber hey – dein Gegenüber ist es doch auch, oder?

Es sind also eigentlich keine neuen Werte, sondern alte Grundwerte werden einfach nur wichtiger. Viel wichtiger. Wertschätzung, Wahrnehmung und Akzeptanz werden immer wichtiger in einer schnelllebigen Welt, in der wir heute leben. Die Wertschätzung des Individuums – seien es Kunden oder Mitarbeiter, Männer oder Frauen oder alles dazwischen, die Wahrnehmung für Märkte und die Entwicklung derer, aber auch für Wünsche und Sorgen der Mitarbeiter und die Akzeptanz für all dies. Die Diversität, die Verschiebung der Anforderungen und die Entwicklung.

Entwicklung rüttelt Märkte auf – aber macht aus Luxus Massenprodukte

Zusammenfassend kann man sagen, dass die Technologie unser tägliches Leben in den letzten Jahrzehnten grundlegend verändert hat. Sie hat unser Kaufverhalten, unsere Art zu arbeiten, unser Umfeld massiv verändert. Viele Lösungen sind massentauglich und massenfinanzierbar geworden, bieten eine enorme Flexibilität gegenüber älteren Ansätzen – aber fordern sowohl den Markt, als auch Unternehmen und jede(n) Einzelne(n) auf, die Grundwerte und das Zwischenmenschliche in den Vordergrund zu rücken.

Von den ersten Computern und Handys, Web, Chatsystemen und Mobilfunk bis hin zur Digitalisierung und dem Internet of Things hat die Technologie uns neue Möglichkeiten eröffnet und unser Leben einfacher und bequemer gemacht. Aber gleichermaßen auch aufgezeigt, dass die beste Technologie ohne ein Wertesystem darunter keinen hohen Wert hat. Danke fürs Lesen.

Screenshot Zigbee Alliance

SmartHome: Funkstandard Zigbee vs. WLAN

Im Smart Home ist eine sichere und zuverlässige Vernetzung von Geräten ein Muss, um eine reibungslose Funktionalität und eine einfache Steuerung gewährleisten zu können. Hier kommt der Funkstandard Zigbee ins Spiel. Zigbee ist ein offener Funkstandard, der speziell für die Verwendung in Smart Homes entwickelt wurde. Die Zigbee-Alliance (siehe Link), eine Gemeinschaft führender Unternehmen im Bereich der vernetzten Geräte, hat Zigbee entwickelt und baut den Standard weiter aus.

Grundlagen von Zigbee als Funkstandard

Zigbee bietet eine Reihe von Vorteilen für Smart Home-Umgebungen, darunter niedrige Kosten, niedriger Stromverbrauch und eine meist einfache Installation. Zigbee-Geräte können miteinander kommunizieren, ohne dass eine kabelgebundene Verbindung erforderlich ist, was die Flexibilität und den Einsatzort erhöht. Die hohe Interoperabilität von Zigbee-Geräten bedeutet, dass Geräte von unterschiedlichen Herstellern problemlos miteinander kommunizieren und ein Gerät mit zentraler Gateway- bzw. Bridge-Funktionalität diese steuern können, was die Benutzerfreundlichkeit erhöht. Zigbee funkt auf dem 2,4 GHz- und 868 MHz-Band bzw. in Einzelfällen dem 915MHz-Band.

Geräteklassen

Zigbee unterscheidet Geräte in zwei unterschiedliche Kategorien:

  • Full Function Device (FFD): Ein FFD beherrscht den kompletten Protokollstack und kann mit RFDs und weiteren FFDs kommunizieren. Im klassischen Netzwerk wäre dies vermutlich am ehesten ein Router oder Server.
  • Reduced Function Device (RFD): Ein RFD ist weniger komplex und kann nur mit einem FFD kommunizieren. Im klassischen Netzwerk wäre dies vermutlich am ehesten ein Client.

Security by default

Mit AES-GCM-128 ist Zigbee auf mehrere Arten gesichert worden. Im Standard IEEE 802.15.4 ist dies näher beschrieben, kurz zusammengefasst ist darin u.A. spezifiziert, dass mit AES-128 nicht nur die Daten, also der Payload des Datenpaketes bzw. Frames verschlüsselt wird, sondern ebenso dessen Datenintegrität validiert wird (“data validaion”).

Zigbee-Frame (Quelle: Libellium Zigbee Networking Guide)

Dafür kommt ein sog. Message Integrity Code (MIC) bzw. ein Message Authentication Code (MAC) zum Einsatz, der an die Daten angehängt wird und die Integrität von Hardware-MAC-Adresse und Payload validiert. Das genutzte Verfahren wird AES-CTR genannt und ist in der folgenden Grafik näher beschrieben.

AES-CTR Encryption Frame (Quelle: Libellium Zigbee Networking Guide)

Zusätzlich zum IEEE 802.15.4-Standard werden zwei weitere Sicherheitsverfahren verwendet: Network & Application Security. Es gibt in dem Verfahren drei Arten von Keys:

Master Keys: Auf jedem Zigbee-Knoten vorinstalliert mit der Funktion, den Link-Key-Austausch zwischen zwei Knoten abzusichern. Dafür wird das Verfahren Key Establishment Procedure (SKKE) verwendet.

Link Keys: Einzigartig innerhalb eines Knotenpaares. Auf Basis des Application Levels werden diese Keys verwaltet. Für die Verschlüsselung der Daten zwischen zwei Geräten werden diese Keys verwendet. Aus diesem Grund benötigen Zigbee-Geräte einen höheren lokalen Speicher.

Network Key: Ein einzigartiger 128-Bit-Key, welcher innerhalb des Zigbee-Netzes mit allen Geräten geteilt wird. Generiert wird der Key von einem Trust Center und in unterschiedlichen Intervallen neu generiert. Jeder Knoten muss den Network-Key erhalten, um Teil des Netzwerkes zu werden. Meist ist im Pairing-Prozess dies einer der Schwachstellen im Knoten-Onboarding in Zigbee-Netze. Sobald das Trust Center die Keys neu generiert, wird der neu generierte Key verschlüsselt durch den alten im Netzwerk verteilt. Wurde der Network Key in einem Zigbee-Knoten aktualisiert, wird der Frame-Counter genullt. Üblicherweise ist das Trust Center der Koordinator im Zigbee-Netz, also zumeist die Bridge oder das Gateway, es kann allerdings auch nach Standard ein eigenständiges Gerät sein. Seine Aufgabe ist die Validierung und Authentifizierung neuer Geräte im Zigbee-Netzwerk.

Wie verbreitet ist Zigbee eigentlich?

Der Standard Zigbee wird von einer Reihe von führenden Herstellern eingesetzt, darunter Philips Hue, Samsung SmartThings, IKEA Tradfri, LIDLs Silvercrest-Gateway, Amazons Echos und viele weitere. Diese Unternehmen nutzen Zigbee, um eine breite Palette von Geräten anzubieten, darunter Lichtsteuerungen, Thermostate, Sicherheitssysteme und vieles mehr. Durch die Unterstützung von Zigbee durch eine Vielzahl von Herstellern ist es einfach, ein vollständig vernetztes Smart Home-System aufzubauen, das auf die individuellen Bedürfnisse angepasst werden kann.

Zigbee-Alliance-Partner (Quelle: CSA/Zigbee Alliance)

Leider bedeutet dies nicht, dass jedes Gerät eines jeden Herstellers miteinander reibungslos funktioniert und jede vom Hersteller oder Entwickler vorgesehene native Funktion auch mit Drittanbieterlösungen funktioniert. In der Praxis haben sich bei mir Schalt-Messsteckdosen und Farbvariationen als nicht einheitlich geregelt dargestellt. Teils werden sie zwar erkannt, teils aber auch nur das. Ein Schalten und vor allem “advanced features” wie das Auslesen und Weiterreichen von Telemetriedaten funktioniert meist nur mit Geräten aus dem gleichen Ökosystem des jeweiligen Herstellers.

Zigbee-Zertifizierungen bis 2021: Zigbee 3.0 ist bereits weiter verbreitet als Smart Energy & vollständig mit dem Standard übereinstimmende Plattformen (Quelle: CSA/Zigbee Alliance)

Zigbee und WLAN im Vergleich

Im Nachgang folgt ein kurzer Vergleich zu WLAN, was wohl die verbreitetste drahtlose Technologie in Heimnetzen zu Zeit der Veröffentlichung dieses Artikels ist (DECT als quasi reiner Telefoniestandard ausgenommen). Der Vergleich ist zwar treffend, da es sich um drahtlose Standards handelt, allerdings ist es auch ein wenig David gegen Goliath, da WLAN bereits seit den 1990er-Jahren standardisiert und seit den frühen 2000er-Jahren etabliert ist. Außerdem lag lange der Fokus im WLAN in der Erhöhung möglicher Bandbreiten, dem Auffächern in Spatial Streams zum Enablement von gleichzeitigen räumlichen Datenströmen zur Vervielfachung von Datenraten, vom einen Access Point bis hin zu Full-Mesh-Systemen sowie controllerbasierten Netzwerken und Access Point-Cluster- bzw. Schwarmverbundsystemen hat WLAN bereits eine deutlich längere Historie als Zigbee.

Ganz wichtig: Der Fokus bei der Entwicklung von Zigbee als Standard lag nie in der Maximierung der Datenrate, sondern in der latenzarmen IoT-Kommunikation. Dabei müssen meist keine großen Datenmengen versandt werden, aber die Latenz, also die Reaktionszeit vom Auslösen eines Aktors oder Schalters bis z.B. eine Lampe angeht hat hier eine deutlich höhere Priorität in der Entwicklung des Standards genossen, als es bei WLAN der Fall war, was ursprünglich nur für latenzirrelevante Anwendungen und asynchrone Kommunikation wie E-Mails konzipiert worden ist.

Nachteile gegenüber WLAN als Trägerstandard

  • Übertragungsgeschwindigkeit: Zigbee hat eine deutlich geringere Übertragungsgeschwindigkeit als WLAN, was bedeutet, dass es nicht geeignet ist, große Datenmengen zu übertragen, wie es bei Video-Streaming oder umfangreichen Downloads der Fall ist. Das war allerdings auch nie das Ziel des Standards.
  • Übertragungsreichweite: Zigbee hat eine geringere Übertragungsreichweite als WLAN, was bedeutet, dass es schwieriger sein kann, eine flächendeckende Abdeckung im gesamten Haus zu erreichen. Allerdings ist im Zigbee-Standard bereits ein Repeater-Mode für Zigbee-Knoten vorgesehen, der dies kompensieren soll.
  • Abhängigkeit von einem Hub/Gateway: Zigbee-Geräte müssen in der Regel mit einem zentralen Hub verbunden sein, um zu funktionieren, während WLAN-Geräte direkt mit dem WLAN-Router oder einem Access Point über ein bestehendes IP-Netzwerk verbunden werden können. Wenn der Hub ausfällt oder aus irgendeinem Grund nicht (mehr) funktioniert, können Zigbee-Geräte nicht mehr funktionieren.

Vorteile gegenüber WLAN als Trägerstandard

  • Niedriger Stromverbrauch: Zigbee-Geräte haben einen sehr geringen Stromverbrauch im Vergleich zu WLAN-Geräten, was sie ideal für den Einsatz in batteriebetriebenen Geräten macht. Zigbee-Geräte können mit einer 3V-Batterie gut und gerne mehrere Monate bis zu einem Jahr auskommen. Das schafft kein WLAN-Gerät heutiger Standards.
  • Niedrigere Kosten: Zigbee-Geräte sind in der Regel günstiger als WLAN-Geräte, da weniger Daten an den Knotenpunkten verarbeitet werden müssen, was günstigere Hardware in der Masse einsetzbar macht und es Benutzern ermöglicht, ein Smart Home-System zu einem erschwinglichen Preis aufzubauen.
  • Bessere Interoperabilität: Zigbee-Geräte sind so konzipiert, dass sie untereinander kommunizieren und Schaltungen steuern können, unabhängig davon, welcher Hersteller sie produziert und entwickelt hat. Im Vergleich dazu kann es bei WLAN-Geräten Probleme geben, wenn sie von unterschiedlichen Herstellern stammen bzw. halbfertige Standards umgesetzt und zu früh auf den Markt gebracht werden. Man denke an das Chaos an “draft-n”-Geräten, da der Standard noch nicht fertig spezifiziert war, aber erste Hersteller mit halbfertigen Geräten auf den Markt drängten.
  • Geringere Latenz: Zigbee-Geräte haben eine deutlich geringere Latenz als WLAN-Geräte, was bedeutet, dass sie schneller auf Befehle reagieren und eine reibungslosere Steuerung ermöglichen. Wer will schon gerne 20s warten, bis ein Licht im Raum angeht, in den man eintritt?
  • Übertragungsreichweite: Zigbee hat eine kürzere Übertragungsreichweite als WLAN, aber es kann in einer größeren Anzahl von Geräten verwendet werden, ohne dass die Leistung beeinträchtigt wird. Außerdem kann Zigbee einfach mehrere Knotenpunkte hinzufügen, um eine größere Abdeckung zu erreichen, da der Standard einen Repeater-Mode jedem Zigbee-Device hinzufügt. Kurz gesagt: Mehr Geräte, mehr Abdeckung. Im Vergleich zu WLAN, was zumeist mit Repeatern eher verschlimmbessert wird, ist Zigbee bereits so konzeptioniert worden, dass Zigbee-Knoten sich gegenseitig erreichen und die Signale mit geringer Latenz weiterleiten können.

Die Übertragungsreichweite ist Vor- und Nachteil gleichzeitig? Wie geht das? WLAN ist von einem Point-to-Point-Standard zu einem Point-to-Multipoint-Standard entwickelt worden. Zigbee ist direkt als Full-Mesh-System designed worden, welches an einem Hub bzw. Gateway oder einer Bridge (jeder Hersteller verwendet hier sein eigenes Wording) zusammengeführt und in andere Protokolle (z.B. Ethernet, HTTPS etc.) übersetzt wird. Die geringe Reichweite des Standards wird durch eine Vermaschung der Knotenpunkte und die Signalverstärkung durch jeden einzelnen Knoten kompensiert. Somit kann ein systemischer Nachteil in der Reichweite gegenüber einem nicht für die Signalverstärkung ausgelegten Systems (WLAN) gut ausgeglichen werden.

Koexistenz von Zigbee & WLAN

Das eine Netz hat einen anderen Zweck als das andere. Somit ist eine Koexistenz durchaus wahrscheinlich und in den meisten Fällen sogar notwendig. Allerdings stören sich Zigbee und WLAN zumindest im 2,4GHz-Band gegenseitig. Die Kanalbreite ist bei Zigbee (5 MHz) allerdings deutlich schmaler als sie es bei WLAN heutzutage (20 MHz oder 40 MHz) ist. In Europa haben wir 13 nutzbare WLAN-Kanäle und 16 nutzbare Zigbee-Kanäle. Bluetooth rangiert mit stolzen 79 nutzbaren Kanälen weit darüber, verfügt aber nur über eine Kanalbreite von 1 MHz.

Im 2,4 GHz-WLAN gibt es genau drei nicht überlappende Kanäle (1,6,11). Genau in diese Kanäle funkt auch Zigbee rein. Die Zigbee-Kanäle 11-22 überlappen mit den Kanälen 1,6,11 aus dem WLAN. Warum das aber nur halb so tragisch ist? Zigbee verfügt über die Möglichkeit, auch im Sub-GHz-Band zu funken. Das muss allerdings der Hersteller auch implementiert haben. Viele “Billig-Zigbee-Produkte” sprechen leider nur im 2,4 GHz-Band. Was also tun, um WLAN und Zigbee genug Raum zu geben? Üblicherweise plant man WLAN-Netzwerke in Wabenform, sodass Kanäle 1,6 und 11 sich möglichst nicht selbst direkt begegnen. Lässt man einen der Kanäle aus, ist mehr Platz für Zigbee-Geräte. Also sind folgende Kombinationen in diesem Kontext sinnvoll:

  • WLAN-Kanäle 1 + 11, Zigbee-Kanäle 16,17,18,19 im 2,4 GHz-Band
  • WLAN-Kanäle 6 + 11, Zigbee-Kanäle 11,12,13,14 im 2,4 GHz-Band
  • WLAN-Kanäle 4 + 9, Zigbee-Kanäle 11,12,25,26 im 2,4 GHz-Band

Matter voraus!

Die Definition von Matter als SmartHome-Standard der Zukunft (Siehe Link) ist bereits getroffen worden. Zigbee ist Teil der Matter-Spezifikation und somit sehr zukunftsträchtig. Auch hier handelt es sich wieder um ein Konsortium unterschiedlichster Hersteller, welche das Ziel haben, die Welt für Verbraucher einfacher und für die Systeme untereinander operabler zu gestalten.

Als eines der elementaren Protokolle wurde Zigbee aufgenommen, was für den Standard ein sehr gutes Zeichen ist und eine lange Nutzbarkeit der Geräte verheißt. Nichtsdestotrotz wird nicht jedes Matter-Gerät Zigbee sprechen und nicht jedes Zigbee-Gerät 1:1 in einer Matter-Umgebung funktionieren. Aber vermutlich nahezu. Wir dürfen gespannt bleiben, wie die Praxis aussieht.

Als Beispiel hat Philips bereits bekannt gegeben, dass es keine Matter-Zertifizierung für neue Hue-Lampen geben wird. Es wird lediglich – aber dafür verlässlich – die Philips Hue Bridge ein Matter-Update erhalten. Somit sind Hue-Leuchtmittel Matter-kompatibel, sofern sie an einer Hue Bridge betrieben werden. Zwischen der Bridge und den Lampen wird die Kommunikation aber weiterhin über Zigbee laufen. Das muss aber nicht nur Nachteile mit sich bringen, sondern bietet auch die Möglichkeit, nicht alle Lampen und Leuchtmittel ersetzen zu müssen, nur um einem neuen Standard hinterherzujagen.

Mein Fazit zu Zigbee

Zusammenfassend kann gesagt werden, dass Zigbee ein wichtiger, wenn nicht einer der wichtigsten Funkstandards für das Smart Home ist, der eine einfache und kosteneffektive Vernetzung von Geräten ermöglicht. Durch die Unterstützung durch eine Vielzahl von Herstellern ist es einfach, ein Smart Home-System aufzubauen, das auf die individuellen Bedürfnisse angepasst werden kann. Zudem ist mit Matter dem Konsortium ein großer Schritt nach Vorn gelungen, wenngleich es dauern wird, bis jeder Gerätetyp in Matter verfügbar und praktikabel nutzbar ist. Dass Zigbee Teil des Ganzen ist, zeigt dass nicht nur die Zigbee-Alliance selbst sondern auch der Markt nach einem solchen einheitlichen Protokoll und Standard gerufen hat und mit Matter erhört worden ist.

Besonders der Security-by-default-Ansatz deutet auf eine aktuelle und zeitgemässe Entwicklung hin. In jeder Produktentwicklung muss Sicherheit eine Kernkomponente sein – steckt sie bereits im Standard, um so besser.

Zigbee hat noch eine lange Zukunft im SmartHome-Umfeld vor sich und wird vss. keine Nischenlösung, sondern eine der Kernfunktionen künftiger Bridges, Hubs und Gateways im SmartHome-Umfeld etlicher Hersteller darstellen. Zigbee-Gateways bzw. Bridges funktionieren allerdings nur über ein Underlay-Netzwerk, also ein vorhandenes LAN oder WLAN bzw. BLE. Es ist also kein “Entweder WLAN oder Zigbee”, sondern in jedem Fall ein “WLAN und Zigbee”, da Zigbee nicht für heute in Nutzdaten-Netzen übliche Bandbreiten vordringen kann – und es auch nicht soll. Sondern latenzarm Telemetriedaten und Steuerbefehle übermitteln. Und das kann es gut.

Andere Leser kauften auch

tado webview

SmartHome: tado und das Geofencing

Wenn man tados smarte Heizkörperthermostate als System im Bereich der Heimautomation einsetzt, gibt es Möglichkeiten, standortbezogene Temperaturanpassungen vorzunehmen. Dafür gibt es mehrere Wege – manche funktionieren zuverlässig, manche weniger zuverlässig – und manchmal muss sogar die App der Herstellers offen bleiben, obwohl man die Hintergrundaktualisierung für die App aktiviert hat.

Was ist Geofencing?

Ein Geofence beschreibt einen geografischen Bereich, der als Trigger für Geräteautomationen dienen kann. Meist wird der Geräteaufenthaltsort via GPS-Koordinaten oder ein bestimmtes verbundenes WLAN, Mobilfunk-Triangulation oder andere Mechanismen im Hintergrund ermittelt. Oder aus einer Kombination daraus.

Was hat meine Heizung damit zu tun?

Entsprechend des Standortes des oder der Mobilgeräte mit tado-App und registriertem Nutzer können Automationen greifen. Innerhalb der tado-App können nicht nur einfache Zeitpläne angelegt werden, sondern auch “Away”-Temperaturen. Ist man also außer Haus, heizt tado auf eine geringere Temperatur (je Raum einstellbar), um unnötige Energieverschwendung zu vermeiden. Das ist super, wenn man vergisst, tado allerdings über die App daran zu erinnern, dass man wieder da ist, kann’s im Winter mal dauern, bis es wieder warm wird. Genau dafür ist die Erkennung des Standortes da – um dies automatisch beim Betreten oder Verlassen des Geofences zu aktivieren oder zu deaktivieren.

tado als smarte Heizungssteuerung

Klingt spannend? Heizung noch nicht smart? Dann kann ich tados smarte Heizkörperthermostate (Affiliate-Link: https://amzn.to/3ZW3JC7) als Lösung wärmstens empfehlen. Neben individuellen Temperatureinstellungen, Zeitplänen, spannenden Graphen zu Temperatur, Raumfeuchte, Außentemperatur und vielen weiteren individuellen Optionen ist es einfach unheimlich praktisch, die Geräte aus der Ferne oder im gleichen Netz über das WLAN ansteuern zu können. Wichtig ist, dass es eine (oder ggf. mehrere) Bridge im Netzwerk (LAN) gibt, die die Funkkommunikation der Thermostate und Thermometer smart steuerbar macht. Und wer doch nochmal händisch die Heizung ausdrehen möchte, weil man ein Fenster kippt oder Sturzlüften möchte, kann dies auch mit individuellen Presets am Gerät machen. Oder die Kindersicherung einschalten, damit diese nicht unnötig heizen oder die Heizung einfach unbemerkt ausmachen.

Welche Wege der Standortermittlung unterstützt tado?

Die App muss die Schnittstelle für die Standortdienste im Zugriff haben, damit sie tadellos funktioniert. Vom Aktivieren des Stromsparmodus rät tado ab, da dann die Hintergrundaktualisierung deaktiviert wird. Die Positionsbestimmung findet im weitesten Sinne über die GPS-Daten des Gerätes, aber auch über Mobilfunk und – sofern konfiguriert – über das Heim-WLAN statt. Dieses lässt sich in der App hinterlegen. Die Genauigkeit wird damit erhöht, da der Geofence im Radius nicht kleiner als 300m gewählt werden sollte und somit eine gewisse Ungenauigkeit mit sich bringt.

In den Einstellungen der tado-App lassen sich die Parameter für die Standortgenauigkeit festlegen

Welche Voraussetzungen müssen dafür erfüllt sein?

Für die Standorterkennung unter iOS gibt es einen tollen Support-Artikel (siehe tado-Support-Artikel) von tado. Dieser ist auch über den Menüpunkt “Empfohlene Smartphone-Einstellungen” verlinkt. Wie die meisten Beiträge von tado ist auch dieser sehr nutzerorientiert und auch für Laien verständlich geschrieben und beschreibt, dass neben der Standortaktualisierung auch die Hintergrundaktualisierung aktiv sein müssen. Geht es nach tado soll die App zusätzlich dauerhaft im Hintergrund laufen. Ich frage mich da, wofür dann noch die Hintergrundaktualisierungen gut sind, wenn die App eh laufen soll, aber ggf. entfällt dieser Hinweis ja irgendwann, wenn die Integration in iOS noch besser gelöst ist. Mir erschließt sich nicht, warum zusätzlich zu den Standort- und Hintergrundaktualisierungen auch die App aktiv laufen muss, aber vielleicht klärt mich ja ein schlauer Anwendungsentwickler bei Gelegenheit auf. Oder tado. Darüber, dass es doch ohne geht. Das wäre fein.

Erfahrungen aus der Praxis

In Kombination mit der Home-WLAN-Erkennung ist die Benachrichtigung ohne AutoAssist als monatliches Abo in Ordnung. Ohne ist die Genauigkeit etwas grob, was dazu führt, dass auch beim Passieren des Geofences für einen kurzen Zeitraum (Stadtverkehr, 30-50km/h im Auto) eine Benachrichtigung ausgelöst wird. Mehr passiert übrigens nicht, wenn man AutoAssist nicht gebucht oder Automationen über HomeKit und co. eingepflegt hat. Die Benachrichtigung ist nett, kann aber auf Dauer auch nerven. Aber genau das soll vermutlich auch der Hintergrund der Benachrichtigung sein – ein davon genervter Nutzer kauft eher das AutoAssist-Paket, damit die App schweigt und alles im Hintergrund passiert.

Wer das nicht möchte, muss mit Benachrichtigungen beim Eintritt in den Geofence rechnen, wenn aktiviert – oder alles händisch einrichten, aber damit ginge einer der großen Vorteile der SmartHome-Welt abhanden. Zum Trost derer, die das Abo in Betracht ziehen: Es kostet nicht die Welt. Kann man machen, auch wenn manches Abo ggf. schnell zur Kostenfalle werden kann, ist hier alles übersichtlich gestaltet und wenn man die dadurch erzielten Einsparungen einrechnet auch wieder sehr fair. Wie Automationen dennoch funktionieren, obwohl man kein AutoAssist gebucht hat, soll ein anderes Mal erzählt werden.

Andere Leser kauften auch

Flash-Speicher – Ende einer Ära?

Nachdem lange optische Medien wie CDs, DVDs, BluRays und was es nicht noch alles dazwischen gegeben hat, nach und nach von der Bildfläche verschwinden, scheint es mit Flash-Medien (zumindest im großen Stile) ähnlich zu verlaufen. Wann ich aus Anwenderseite das letzte Mal einen Stick oder eine Speicherkarte in der Hand hatte? Lange her. Zumindest im reinen “Anwenderumfeld” losgelöst von speziellen Einsatzszenarien.

Dies soll ein Rückblick, eine eigene Einschätzung und ein möglicher Ausblick sein. Viel Spaß!

Die Entwicklung der Speichermedien – ein Kurzabriss

Es begann nach vielen sehr analogen Speichermedien wie Steintafeln, Papyrusrollen und vorzeitlichen Real-Estate-Wandtattoos oder den ersten Whiteboardskizzen auf Steinen im 19. Jahrhundert bis Mitte des 20. Jahrhunderts mit der Lochkarte. Dem analogen Speichermedium als erster Meilenstein in eine digitale Welt.

Die Lochkarte (1890 – ca. 1950, teils länger)

Die Lochkarte konnte in sehr engem Rahmen genau für die Maschine, für die sie gemacht war, Abläufe darstellen. Doch eben nur genau so, wie das Gerät funktionierte, eher als semiautomatisches Handbuch für Maschinen. Die ersten genormten Lochkarten bestanden aus Pappe und hatten ein „Speichervolumen“ von 80 Spalten und 12 Zeilen. Damit konnten Ziffern (0-9) und ein mathematisches Vorzeichen dargestellt werden (+/-). Später waren auch – fest definierte – alphanumerische Zeichen möglich. Aus heutiger Sicht lächerlich wenig Informationen – aber der Einstieg in heutige Automationslogiken. Die ersten Bereiche, die davon profitierten waren Manufakturen, die sich der industriellen Produktion verschrieben hatten und nach und nach zum Beispiel das Weberhandwerk effizienter gestalteten.

Lochkarte mit 1964 EBCDIC-Zeichensatz (Quelle: Wikipedia)

Der Trommelspeicher (1928 – ca. 1960)

Im Jahr 1928 wurde der Trommelspeicher in Österreich durch Gustav Tauschek entwickelt und patentiert. Dieser kann als Vorläufer der noch bekannten aber nach und nach seltener werdenden mechanischen Festplatten bezeichnet werden, war allerdings durch mehrere Schreib-/Leseköpfe groß und schwer – und trommelte laut bei Schreibvorgängen.

Das Magnetspeicherband (1950 – heute)

Mit der Zeit wurden nach und nach Trommelspeicher und schon damals antiquierte Lochkarten aus dem Markt gedrängt und durch Magnetspeicherbänder abgelöst. Diese bestanden weitestgehend aus einer magnetisch beschichteten Kunststoff-Folie und konnten wenige Megabyte Daten fassen. Der Raumbedarf war allerdings enorm – und die Magnetbänder anfangs sehr fehleranfällig. Mittlerweile ist die Technik einige Jahrzehnte gereift und wird in Rechenzentren teils immer noch als ein von optimalerweise mehreren Speicherzielen für Backups genutzt.

LTO2 Ultrium-Tape in Philips Einlochkassette, Picture by Austin Murphy (Quelle: Wikipedia)

Die erste mechanische Festplatte (1956)

Mit der IBM 350 (Wikipedia) kam 1956 die erste, tonnenschwere magnetische Festplatte auf den Markt. Mit den ca. 5 MB (5 Millionen 6-Bit-Zeichen) Speicherkapazität würde man heute kein Stechen der Datenblätter mehr gewinnen, allerdings braucht jede Entwicklung ihre Zeit – und das war die der IBM 350.

Womit man vermutlich – im Negativen – jedes Stechen gewinnen würde, wären die gigantischen Abmessungen: Eine Festplatte, die 173 cm hoch, 152 cm breit und 74 cm tief ist, wird man heute wohl kaum noch finden. Die Abmessungen waren allerdings auch nötig, da 50 24″-Scheiben darin werkelten. Die Datenkapazität war für damalige Verhältnisse allerdings ähnlich riesig wie ihre Abmessungen – über 60.000 Lochkarten konnten in einer IBM 350 abgelegt werden. Mehr dazu findet sich im Webarchiv (Link). Ein Kauf war damals übrigens nicht vorgesehen, man konnte den Datenkoloss für damalige 650 USD monatlich mieten. 1960 waren durch IBMs Weiterentwicklung ganze 100MB möglich auf ähnlich viel Raum zu speichern.

Die Disketten (1969 – 1995)

Da Festplatten phänomenal groß und teuer waren, musste ein “Massenmedium” her, ein kostengünstiger Nachfolger der Lochkarte, nur flexibler und mit mehr Speicherplatz. Das war die Geburtsstunde der Diskette. Diese wurde – ähnlich wie Festplatten – magnetisch beschrieben, enthielten allerdings keine Metallspindeln, sondern eine große, magnetisch beschichtete Kunststoff boPET-Scheibe. 1969 kam die erste 8″-Diskette von IBM raus und IBM revolutionierte den Speichermarkt erneut. Durch ihr wabbeliges Medium wurde sie im Englischen schnell “floppy disk” oder nur “floppy” genannt, auch bald in Deutschland.

assorted floppy disks
3,5″-Disketten; Photo by S J on Pexels.com

In ihrer Urform (8″ von IBM) konnten 180 KiB, später bis zu 1MiB gespeichert werden. Es entwickelten sich etliche Alternativformate unterschiedlicher Hersteller. Etabliert haben sich vor allem die 5,25″-Variante (80 – 1200 KiB) und die später extrem populäre und kompakte 3,5″-Variante (1,44 MiB). Sonderformate wie von Canon und Sony haben nur eine geringe Marktdurchdringung erfahren und wurden zumeist in Multimediageräten und frühen Camcordern verwendet.

Nachteil aller Disketten war allerdings, dass die Magnetisierung mit der Zeit nachgelassen hat oder andere magnetische Quellen durch das sehr offene magnetbasierte System schnell Daten vernichten konnten – in vielen Fällen auch ungewollt. Wohingegen die theoretische Speicherdauer in die Jahrzehnte bis Jahrhunderte ging – vorausgesetzt Magnetisierung und Trägermedium überleben diese Zeitspanne.

Audio-/Video-Magnetbandsysteme (1960 – 2000)

Ein ähnliches Verfahren nutzten die damaligen Audio- & Video-Kassetten. Bekannteste Formate waren hier vermutlich VHS & SuperVHS (Video) und die “MC” oder Musikkassette (Audio), insbesondere die von Philips entwickelte Kompaktkassette basierend auf einem Bild-/Tonband. Die Kompaktkassette wurde 1963 von Philips zur Marktreife gebracht und veröffentlicht.

retro cassette with tape on gray background
Kompaktkassette; Photo by Elijah O’Donnell on Pexels.com

Compact Disc, CD (1982 – 2010)

Die Ära der Silberscheiben hatte mit der Vorstellung der CD (Compact Disc) im Jahr 1981 auf der Berliner Funkausstellung begonnen. Eine Marktverfügbarkeit war ab 1982 gegeben. Mit 650MB bzw. 74 Minuten Laufzeit wurde die CD ein echter Game-Changer. Die 74 Minuten Spielzeit beziehen sich auf Beethovens 9. Sinfonie, die vollständig auf einen Datenträger passen sollte. Später waren 700MB-900MB bzw. bis zu 100 Minuten Audioaufnahmen je Silberscheibe üblich – allerdings wurde der Standard dahin nie angehoben. Mit 178 KB/s (1x) bis zu 7,99MB/s (52x) konnte an demselben Medium lange festgehalten werden – und auch wenn das Format von Sony kam, war es dennoch schnell universell bespiel- und auslesbar.

person holding cds
CDs, Photo by cottonbro studio on Pexels.com

Polycarbonat sowie eine dünne Metallschicht mit Schutzlack und Druckfarben ergeben am Ende des Produktionsverfahrens eine CD. Im Gegensatz zu Schallplatten werden CDs nicht gepresst, sondern in Spritzguss gefertigt. Anlagen zur Herstellung optischer Datenträger wie derer von CDs werden dennoch Presswerk genannt.

Zeitweise folgten ab Ende der 1990er-Jahre Sonderformate wie die CD-RW, die im Gegensatz zur CD-ROM (read-only-memory) wiederbeschreibbar war. Deshalb trug sie das “RW” (rewritable) im Namen. Da die Produktion in deutlich geringeren Stückzahlen erfolgte und das Verfahren teurer war, um sie wiederbeschreibbar zu machen, lagen Formate wie die CD-RW meist preislich weiter oben als die Standard-CDs. Zudem sind für CD-RW-Lese- und Schreibvorgänge neuere Laufwerke notwendig gewesen, die die meist dickere Schicht an Polycarbonat durchdringen konnten. Wiederbeschreibbar war sie allerdings nicht unendlich und da jedes Mal die CD erneut gebrannt werden musste, litt das Material unter vielen Schreibvorgängen mehr als unter Lesevorgängen, was sie vor allem zu einem Konsummedium oder Einmalspeicher machte.

Digital Vertsatile Disc, DVD (1995 – 2015)

Mit den steigenden Anforderungen an Datenübertragungen und die Speicherung von Multimediainhalten, vorwiegend schwergewichtiger Mehrkanalton-Filmen wurde in den 1990ern die DVD entwickelt und nach und nach auf den Markt gebracht. Die Compact Disc kam aufgrund der Kapazität und der Datenrate an ihr Limit – Filme mussten zeitweise auf zwei CD-R oder CD-SA abgelegt werden, was ein unhandliches Wechseln der Datenträger beim Filmgenuss bedeutete. Zudem war die Datenrate nur für Stereoton ausgelegt, was zu Engpässen in qualitativ brauchbaren Mehrkanalformaten auf CDs führte.

Die DVD bietet mit ihren 4,7GB (Single Layer) und später 8,5 GB (Double Layer) ausreichend Kapazität für Mehrkanalton und Videos in Spielfilmlänge in PAL/NTSC- bzw. 576p-Qualität. Als Tonformate waren DolbyDigital 5.1 bis 7.1 Standard, sowie das etwas später standardisierte und etwas voluminösere DTS, der Universalstandard AC3-5.1 und MPEG1 bzw. MPEG2.

Durch eine sehr hohe Produktionsstückzahl konnten DVDs extrem günstig gefertigt werden und überholten im Datenumfeld die CD und die Diskette, lösten aber deutlich prominenter und final noch die Formate VHS und SuperVHS im Videoumfeld ab.

BluRay Disc, BD (2008 – 2025)

Nachdem die DVD ihren Siegeszug beendet hatte, wurde abermals der Speicherbedarf bei den optischen Medien höher. Man wollte hochauflösender Inhalte speichern und wiedergeben können – abermals vordergründig Audio und Videomaterial. Netter Nebeneffekt: Auch der Datenspeicher selbst ist im Vergleich zur DVD erheblich angehoben worden: 25GB (Single Layer) bzw. 50GB (Double Layer) sind möglich, auf einer BluRay-Disc zu speichern. Die Auflösung stieg über 1080p bis 4k auf den blauen Glitzerscheiben. Zudem wurden erstmals Mehrkanal-Formate wie DTS-HD oder objektbasierte Surroundsound-Formatewie Dolby Atmos oder Auro3D auf Scheibe gebrannt.

Als Nachfolger wurde die UltraHD-Bluray standardisiert. Diese bietet im Dual Layer-Verfahren 50 GB an Kapazität und 82 MB/s an Datenrate, im Triple Layer-Verfahren 66 GB und 100MB/s, sowie im Quad Layer-Verfahren produziert 100GB bzw. 128MB/s an Übertragungsrate für Medien. Wie der Name vermuten lässt, sind hier UHD-Auflösung und weitere Aspekte Maßgeblich. HDR10 bzw. DolbyVision sorgen für gute Kontraste, das Kopierschutzformat HDCP 2.2 bzw. HDMI 2.0 als Ausgabesignal sind nun zwingend erforderlich. Als führende Audioformate dienen die drei Spitzenreiter der objektbasierten Tonformate: DTS-X, Dolby Atmos und Auro3D.

USB-Sticks & Speicherkarten

Durch die neueren USB-Standards ab USB 3.0 können Daten mit 5Gbit/s bis mittlerweile 40Gbit/s (Ab Thunderbolt 3 bzw. USB 4) übertragen werden. Der Textlänge zugute fasse ich USB-Sticks und jede Art von Speicherkarten hier einmal zusammen. Für große Dateien oder für die Erstellung bzw. Bearbeitung & Übertragung von Rohdaten aus Kameras, Actioncams, Drohnen und co. sind nach wie vor Speicherkarten das Nonplusultra. Klein, leicht, einfach zu tauschen und mittlerweile mit massig Speicherplatz verfügbar.

USB-Sticks sind zudem für den Einsatz in vielen technischen Umfeldern unerlässlich. So werden nach wie vor viele Geräte per USB mit neuer Firmware versorgt, sollte ein OTA-Update (over the air) versagen.

Auch wenn man daher seltener USB-Sticks und Speicherkarten zu Gesicht bekommt, als noch vor einigen Jahren, gibt es sie weiterhin und wird es sie weiterhin geben.

Flashspeicher stecken in USB-Sticks und Speicherkarten – beides findet man mittlerweile seltener im Alltag

Massenspeicher SSD & HDD

Nach wie vor findet man in einigen Rechnern, allerdings zunehmend weniger Desktopsystemen, drehende Festplatten (HDD; Hard Disk Drive). Diese werden aufgrund ihrer mechanischen Fehleranfälligkeit und der vergleichsweise langsamen Lese-/Schreib-Geschwindigkeit von wenigen hundert Megabyte pro Sekunde nach und nach von Flashspeichern (SSDs; Solid State Disks) abgelöst, die ohne mechanische Bauteile auskommen und ein Vielfaches der Lese-/Schreibperformance von HDDs erreichen.

close up of putting memory card on laptop
SSD beim Einbau, Photo by phiraphon srithakae on Pexels.com

Schloss man vor einigen Jahren noch HDD und SSD über den gemeinsamen SATA-Anschluss an, wird mittlerweile meist der deutlich performantere PCIe-Bus der Rechner für eine direktere Speicheranbindung an die CPU genutzt. Dieser Schritt bringt ebenfalls neben dem reinen Medienwechsel (HDD vs. SSD) nochmal eine Verachtfachung bis Verzehnfachung der Geschwindigkeiten mit sich.

silver hard drive interals
Festplatte ohne Abdeckung; Photo by Pixabay on Pexels.com

Klassische Festplatten mit mehreren Terabyte an Kapazität werden meist nur noch als Datenspeicher für Massendaten (Medien, Archivdaten etc.) eingesetzt. Im Unternehmensumfeld beherrschen Speichersysteme mittlerweile ein Storage-Tiering, welches intelligent entscheidet, welche Daten häufig genutzt werden oder einem bestimmten Datentyp angehören und legt diese in den schnellen Flash-Speicher, während lange nicht benutzte Dokumente auf den langsameren, drehenden Festplatten gelagert werden.

Neue Nutzungsmodelle, neue Wege

Durch die immer höhere Vernetztheit und (in Deutschland langsam) steigende Bandbreiten sowie modernere, meist abobasierter Nutzungsmodelle unterschiedlichster Branchen werden immer weniger physische Medien genutzt. Wo vor Jahrzehnten noch Musik-CDs, vor Jahren noch MP3-Sammlungen und die iTunes-Mediathek vorherrschend waren, nutzt heutzutage mittlerweile fast jeder irgendwie Dienste wie Spotify, Deezer und co. – das betrifft auch andere Bereiche, wie zum Beispiel die Übertragung von Daten über das Internet. Wo vor Jahren noch physische Datenträger notwendig waren, um Dateien jenseits der bei eMails üblichen 20MB-Marke zu verschicken, wird der Markt mittlerweile von Datengräbern und -teilplattformen wie Dropbox (Link), OneDrive, der iCloud und einiger teils wirklich guter OpenSource-Lösungen, wie Owncloud (Link) oder Nextcloud (Link) dominiert.

Seit ca. 2015 sind zudem in Deutschland Video-Streamingdienste wie Amazons Prime Video (Link), Netflix (Link), AppleTV+ (Link) und Disney Plus (Link) populär geworden. Analog dazu gehen die Verkäufe von physischen Datenträgern im Endkundenbereich erheblich zurück.

person holding a black remote control
Photo by Karolina Grabowska on Pexels.com

Früher musste viel vor Ort passieren. Das ist mittlerweile durch Cloud-Dienste und gute Remote-Lösungen für Support und Betrieb weniger wichtig bis unwichtig geworden. Natürlich will man die Musik auf die eigenen Ohren bekommen, aber die Mediathek muss nicht mehr auf dem MP3-Player, iPod oder sonstigem prähistorischen Mobilgerät liegen, sondern kann einfach “on demand” abgerufen werden. Und das geht mittlerweile – dank fortschrittlicher Entwicklung im Bereich der Datenkompression auf der einen und Erhöhung der Bandbreiten auf der anderen Seite – nahezu überall mit Internetanbindung. Für Audio, Video, Daten. Wofür also noch Datenträger?

Wofür wird externer Flash-Speicher noch gebraucht?

Wie oben erwähnt wird es noch die ein oder andere Nische geben, die nach wie vor kleine Flashdatenträger erfordert. Hier einige Beispiele, die in der kommenden Zeit vielleicht seltener aber nicht gänzlich verschwinden werden:

Speicherkarten

  • Fotografie & Bildverarbeitung (Foto-Kameras, Action-Cams, IP-Kameras etc.)
  • Drohnen & Quadrocompter
  • Fertigungsgeräte wie 3D-Drucker & CNC-Fräsen
  • Einplatinencomputer wie der Raspberry Pi oder der Arduino

USB-Sticks

  • Mobile Datensicherungen von Speicherkarten
  • Verfügbarmachung von Daten ohne Internetanbindung unterwegs
  • Schnelle Datentransfers großer Dateien
  • Firmware-Updates von Computern, Fernsehern, Smart-Speakern, Druckern uvm.

In vielen anderen Bereichen ist mittlerweile der physische Speicher im Alltag von Clouddiensten verdrängt worden. Wer mit den o.g. Themen nichts am Hut hat, wird daher vermutlich bald weitestgehend auf physische Flash-Speichermedien verzichten können. Aber eben nur weitestgehend. Denn sobald über die Anschaffung einer Kamera, eines Einplatinencomputers oder eines ähnlich technisch-fokussierten Gadgets nachgedacht wird, kommen auch die kleinen Flashspeicher-Stecklinge wieder ins Spiel.

Mein ganz persönliches Fazit

Für mich persönlich werden Flashspeicher noch eine Weile relevant bleiben, allerdings wird es bereits jetzt schon die ersten Digitalminimalisten geben, die vollständig auf lokale Datenträger verzichten (können). Wer allerdings in einem technischeren Umfeld seinen Job oder seine Hobbies verortet, dem sei geraten noch nicht alle Flashspeicher auszusortieren. Dennoch ist man gut beraten, wenn man beizeiten mal auf neuere Generationen umsteigt – um ungewolltem Datenverlust und unendlich langen Kopiervorgängen aus dem Weg gehen zu können.

Mich interessiert, ob es da draußen wirklich schon Leute gibt, die sich neben der DVD-/BD-Sammlung bereits schon auch von lokalem Speicher freimachen konnten. Schreibt´s gern in die Kommentare!

Audio: Wird jetzt alles Wireless?

Vieles ist mittlerweile sehr gut drahtlos möglich. Die Wenigsten werden z.B. noch Telefonate über Onlinekonferenzsysteme mit einem verkabelten Headset führen, in der Bahn die Kopfhörer mit dem Klinkenstecker am Gerät anschließen (sofern noch eine Buchse vorhanden ist) oder sogar Musik zuhause mit CD/LP in einem festen Gerät wiedergeben.

Aber Bluetooth und WLAN sind doch jetzt super…oder?

Dennoch gibt es (wenige) Szenarien, in denen drahtlos nicht die Lösung für alles ist. Und zwar, wenn es um Latenz geht. Auch wenn die drahtlosen Standards wie Bluetooth, WLAN und co. in den letzten Jahren mehrmals in ihrer Evolution revolutioniert worden sind, reicht die schon gute Latenz nicht für jeden Anwendungszweck.

Drahtgebundene Anwendungsfälle

Für die meisten Standardanwendungen ist es nicht relevant, ob z.B. der Spotify- oder Apple Music-Stream wenige (Milli-)Sekunden später startet. Dennoch kann die Synchronisation von Ton und Sprache und Sprache mit Sprache noch immer drahtlos zu weit auseinander liegen, als dass man keinen Störeffekt wahrnehmen würde. Welche Anwendungen betrifft das?

  • Bild- und Tonsynchronisation, ggf. beim Streaming von nicht kompakt kodierten Inhalten
  • Aufnahmen mehrerer Audioquellen in einem Audiostream
  • Dauerhafte Anbindung für akustische (zeitkritische) Benachrichtigungen

Die AbgrenzungWireless vs. Wired

Guten Gewissens kann man dennoch zuhause schon sehr viel, aber eben nicht jedes Audio-Gerät drahtlos anbinden. Es sollten Soundbars z.B. für den Fernseher nach wie vor verkabelt via HDMI/Toslink angebunden werden, da hier der Ton möglichst lippensynchron übermittelt werden sollte. Es treten sonst eigenartige Effekte auf, die wirken, als hätte jemand das offiziell gestreamte Video einen eigenartig nachsynchronisierten Ton. Auch das Tonstudio wird auch nicht „mal eben vollständig drahtlos“. Natürlich gibt es lange schon Wireless-Funkstrecken für Instrumente, aber auch in stark umfunkten Gegenden wird man für Aufnahmen eher davon absehen.

Für Musik-Streaming oder gelegentliches Wiedergeben von Ton für z.B. ein MacBook und das gelegentliche Video, das über AirPlay oder Ähnliches läuft und tägliche Telefonate/Konferenzen kann man durchaus drahtlos auf ein Headset oder einen Wireless-Lautsprecher gehen, das ist zeitgemäß und gut machbar.

Lautsprecher – wired vs. wireless

Welche Wireless-Technologie für Audio?

Wer hätte es gedacht – es gibt Unterschiede in den möglichen Technologie, die eine drahtlose Anbindung ermöglichen. Hier eine pauschale Aussage zu treffen, ist sicher schwierig, dennoch sollte man beachten, was störungsfrei oder mindestens störungsarm funktioniert.

Kurzstrecke mit viel Kompatibilität? Bluetooth!

Alles, was auf kurzem Wege und mit möglichst vielen Geräten funktionieren soll, würde ich aktuell über Bluetooth laufen lassen. Neben den Audioinformationen werden zudem bei Mobilgeräten, Headsets etc. Informationen über den Akkuladestand an das übertragende Gerät übermittelt, damit man z.B. im Zug Bescheid weiß, wann es wieder Zeit ist, eine Steckdose oder Powerbank anzuschließen.

Nach Möglichkeit sollten sowohl Sender (z.B. ein Smartphone, Notebook etc.) als auch der Empfänger (Headset, Bluetooth-Lautsprecher) mind. Bluetooth 5.0, wenn nicht sogar schon 5.2 unterstützen. Mit dem Sprung von Version 4.x auf 5.x hat sich hier einiges hinsichtlich der Effizienz und somit der Akkuleistung, aber auch bezüglich der Verbindungsstabilität getan.

Und bitte: Nicht ins unterste Preisregal bei Audioprodukten greifen. Es muss kein High-End-Headset sein, aber Sprache und Musik sollten mindestens ausgewogen klingen, wenn noch ein brauchbares Mikrofon (meist mittlerweile mehrere) verbaut ist, ist das noch besser. Zum Laufen reichen mir Kopfhörer, die Spritzwasser- und Schweißschutz mitbringen in der Preisklasse um die 30€. Damit führe ich aber keine (nur in Ausnahmefällen) Telefonate. Zudem muss die Passform zum eigenen Ohr passen. Reine Plastikkopfhörer fallen einfach vielen Menschen – grade bei Bewegung – aus den Ohren.

Dauerhafte Verbindung? WLAN!

Jetzt will man vielleicht nicht immer erst den Lautsprecher einschalten, ggf. noch koppeln oder verbinden – und dann ist er nachher genau dann leer, wenn man grad richtig Bock auf den Soundtrack oder das Lied hat, das einen grade durch den Kopf geht. Für dauerhaft verbundene Lautsprecherlösungen eignet sich das WLAN. Schließlich läuft man in der Wohnung mal hin und her, wohnt vielleicht in einem Haus und geht mal ab und an vor die Türe – und immer ist die Verbindung weg. Handy in der Tasche, alle anderen hören leider nur noch das Suchgeräusch des Speakers für eine abgebrochene Verbindung. Das nervt auf Dauer. Hersteller wie Sonos, Yamaha oder Denon haben mittlerweile gute Multiroom-Audiosysteme am Markt, die zum Teil mittlerweile auch 5GHz WLAN beherrschen. Sonos ist was das angeht etwas rückständig, funkt weiterhin auf 2,4GHz, was grade in Mehrfamilienhäusern in der Stadt der Graus schlechthin ist. Ständig fliegt die Verbindung weg. Kein Wunder bei 37 Netzen in Reichweite des Funkmoduls bei maximal drei störungsfreien Kanälen! Ich habe mich hier vor einigen Jahren für Denon entschieden – aus klanglichen und verbindungstechnischen Gründen.

Das WLAN sollte den Bereich, in dem der Lautsprecher eingesetzt wird gut abdecken. Die Übertragungsraten sind hier nachrangig, die Latenz vordergründig. Audio-Streams laufen meist mit weniger als 10Mbit/s auf sehr gutem Level. FLAC und WAV als unkomprimierte Formate mal ausgenommen, das kann durchaus drüber liegen.

Sollte das Netz oder die Endgeräte darin nur WiFi4 oder geringer leisten können, ist es Zeit für ein Upgrade. Seit WiFi5 (IEEE 802.11ac) und nochmals seit WiFi6 (IEEE 802.11ax) wurde erheblich an der Verlässlichkeit und damit auch an der Latenz für die verbundenen Geräte gearbeitet. Einen guten Access Point auf aktuellem Standard bekommt man für rund hundert Euro, teils darunter. Er beflügelt ziemlich sicher die Qualität veralteter Netze. Bitte aber die alte Infrastruktur dann abschalten und nicht parallel laufen lassen. Es kauft sich ja auch keiner einen neuen Sportwagen, um danach nur noch im 20 Jahre alten Golf durch die Gegend zu fahren.

Andere Leser griffen auf folgende Dienstleistungen zurück

Skip to content