Vision Unprinter: Diese Technik soll die Umwelt schonen und die Kosten senken

type-786900_640Ein Drucker, der bereits bedruckte Seiten wiederverwertet? Was im ersten Moment paradox klingt, könnte schon bald eine Revolution auf dem Druckmarkt sein. Trotz fortschreitender Digitalisierung zählt Papier immer noch zu den am häufigsten genutzten Verbrauchsmaterialien. Allein in deutschen Büros werden jährlich viele Tonnen des Naturrohstoffs zum Drucken förmlich verschwendet. Diesem nicht nur finanziellen sondern vor allem ökologischen Problem widmet sich der mexikanische Ingenieur David Leal. Mit seinem Projekt „Unprinter“ will er bedrucktes, aber nicht mehr benötigtes Papier wieder für Drucke nutzbar machen. Mehr lesen

WLAN-Festplatten als mobile Speicherlösung

Bildrechte: GesaD, pixelio.de
Bildrechte: GesaD, pixelio.de

Die WLAN-Festplatten sind auf dem Vormarsch! Mit der steigenden Anzahl mobiler Endgeräte und den technischen Möglichkeiten dieser wird Speicherplatz immer wichtiger. Smartphones und Tablets sind zwar überall und immer mit dabei, jedoch ist die Speicherkapazität dieser Geräte oft begrenzt. Hier kommen WLAN-Festplatten ins Spiel.

Was ist eine WLAN-Festplatte?

Im Prinzip ist eine WLAN-Festplatte eine externe Festplatte, welche über die Besonderheit verfügt, selbstständig ein WLAN-Netzwerk herzustellen. Dies ermöglicht es allen WLAN fähigen Endgeräten in der näheren Umgebung auf diese Daten zuzugreifen. Dabei liegt der größte Vorteil in der Mobilität. Da sie keine externe Stromversorgung benötigen und die Verbindung drahtlos funktioniert sind sie praktisch unsichtbar. So werden mobile Endgeräte drahtlos um massig Speicherplatz erweitert. Wer genauere Informationen zu einzelnen aktuellen Modellen benötigt, dem sei das Ratgeber- und Testportal für WLAN-Festplatten ans Herz gelegt.

Für wen lohnt sich eine WLAN-Festplatte?

Eine WLAN-Festplatte eignet sich am ehesten für Personen, die unterwegs auf große Datenbestände zugreifen müssen. Mittlerweile gibt es auch die Cloud Technik, die es erlaubt, Daten online zu speichern und diese auch von Unterwegs jederzeit abrufen zu können. Nicht jeder ist jedoch gewillt zum Teil persönliche Daten wie Fotos oder Videos aber auch Dokumente ins Internet zu stellen. Eine WLAN-Festplatte erzeugt ein eigenes Netzwerk völlig unabhängig vom Internet. Somit hat man zudem den Vorteil nicht auf eine Internetverbindung angewiesen zu sein.

Was gibt es für Unterschiede?

SSD vs. klassische Festplatte
Wie alle Festplatten mittlerweile werden auch WLAN-Festplatten als SSD oder klassisch magnetische Festplatte angeboten. Wer sein Hauptaugenmerk auf viel Speicherplatz legt ist mit der klassischen Variante gut beraten, wer dagegen mehr Wert auf schnellen Datenzugriff legt, sollte zur SSD Variante greifen. Aufgrund der erheblich schnelleren Zugriffszeit ist eine SSD Platte im Gegensatz zum normalen Modell bei gleichem Speicherplatz erheblich teurer.

Speicherplatz

Der Speicherplatz von WLAN-Festplatten reicht von 32 GB bis hin zu 4 TB. Je nachdem was für Daten man auf der Platte speichern will hat man hier die freie Auswahl. Wenn man bedenkt, dass heutige HD Filme oft schon 10 bis 30 GB groß sein können, sollte man jedoch mindestens etwa 500 GB einplanen, um flexibel zu bleiben und keine Platzprobleme zu bekommen.

Reichweite

Die Reichweite der einzelnen Geräte wird von den Herstellern meist mit 10 bis 50 Metern angegeben, Praxistests zeigen oft aber deutlich geringere Entfernungen, gerade beim Streamen von Filmen. Die Datenübertragung wird mit zunehmender Entfernung immer langsamer und führt oft zu Rucklern, wenn die Entfernung zu groß wird.

Akkulaufzeit

Auch hier gibt es große Unterschiede. Die meisten Geräte haben laut Hersteller eine Akkulaufzeit von 5-10 Stunden. Hier kommt es wieder darauf an, wie die Platte genutzt wird. Beim Streamen von Filmen, möglicherweise auch noch auf mehreren Endgeräten muss der Akku schneller wieder aufgeladen werden als nach einfacher Dokumentenbearbeitung.

Was ist noch zu beachten?

Auf jeden Fall sollte man die WLAN-Festplatte mit einem Kennwortschutz vor unerlaubtem Zugriff schützen. Tut man Dies nicht, kann praktisch jeder der sich in Reichweite befindet auf die Daten zugreifen. Wenn man vor der konkreten Kaufentscheidung steht, sollte man unbedingt aktuelle Testberichte zu Rate ziehen und sich für ein Modell entscheiden, dass den eigenen Ansprüchen am ehesten gerecht wird.

Aktuelle Probleme mit IPv6 und warum es immer noch nicht flächendeckend umgesetzt wurde

Das Internet Protokoll Version 6 (IPv6) bildet das Nachfolgeprotokoll des derzeitig überwiegend verwendeten Protokolls IPv4. IPv6 wurde bereits Anfang 1995 entwickelt, weil damals schon absehbar war, dass der durch den aktuellen Standard Ipv4 gebotene Adressraum knapp wird.

340 Sextillionen Adressen mit IPv6

Besonders in der Anfangszeit des Internets wurden großzügige Adressblöcke des IPv4 Protokolls an Unternehmen verteilt, die jetzt nicht mehr ohne weiteres zurückgefordert werden können. Dadurch verknappte sich die Anzahl der IPv4 Adressen zunehmend. Mit dem Nachfolgeprotokoll IPv6 hingegen ist es jedoch möglich, ungefähr 340 Sextillionen Adressen zu verteilen. Diese Anzahl reicht aus, um Gerät auf der Welt mit einer eigenen IP-Adresse zu versorgen.
Welche Vorteile bringt IPv6?
Fälschlicherweise wird das IPv6 Protokoll als IPv4 nur mit längeren Adressen bezeichnet. Denn das IPv6 Protokoll besitzt eine Vielzahl neuer Funktionen, wodurch sich Erfahrungen mit dem IPv4 Protokoll nicht ohne weiteres auf den neuen Standard übertragen lassen.

Die Vorteile von IPv6:

  • Größerer Adressraum abbildbar aufgrund längerer Adressen
  • Autokonfiguration der IPv6 Adresse
  • Multicast durch spezielle Adressen
  • Datenpakete bis zu 4 Gigabyte
  • Schnelleres Routing

Datenschützer bemängeln IPv6

Durch die dauerhafte Zuweisung einer IP-Adresse mit IPv6 ist es möglich, ein vernetztes Gerät genau zu identifizieren. Dabei ist in Deutschland nach wie vor umstritten, ob eine IP-Adresse im Sinne des deutschen Datenschutzrechts zu den personenbezogenen Daten gehört. Wenn ja, wäre diese als besonders schützenswert zu betrachten. Bisher erhalten Nutzer von ihren Providern durch das System der dynamischen IP-Vergabe bei jeder Einwahl ins Netz eine neue IP-Adresse.

Bei der statischen Vergabe hingegen können Nutzer selbst Jahre später noch identifiziert werden und zudem alle bis dahin besuchten Internetseiten abgerufen werden. Dadurch könnten umfassende Nutzerprofile erstellt werden. Eine heikle Sache, angesichts der kritischen Vorgehensweisen der Geheimdienste in jüngster Zeit. Datenschützer wollen Provider daher per Gesetz dazu verpflichten, auch unter IPv6 dynamische Adressen an Nutzer zu vergeben.

Wo gibt es Probleme bei der Umstellung auf IPv6?

Schon im Jahr 2012 forderten die Internet Society Hersteller und Provider dazu auf, die Unterstützung für IPv6 nicht mehr nur als Option zu betrachten. Dabei ist die Umstellung auf IPv6 keine leichte Aufgabe. Vor allem auf DNS-Servern gibt es zahlreiche Probleme, diese auf das neue Protokoll vorzubereiten. Hinzu kommt, dass innerhalb der Übergangszeit auf IPv6 das Vorgängerprotokoll IPv4 weiterhin unterstützt werden muss.
Für Provider bedeutet die Umstellung ein enorm hoher Aufwand, müssen sie doch ihre Infrastruktur vollständig auf das neue Protokoll vorbereiten. Dabei besteht für sie das Wagnis, bei Tausenden ihrer Kunden Netzabbrüche oder gar Totalausfälle zu riskieren. Andererseits sind Provider quasi gezwungen, das neue Protokoll zu implementieren, um weiterhin im Wettbewerb Schritt zu halten.

Umstellung auf IPv6 wurde jahrelang vor sich hergeschoben

Hardwarehersteller und Provider zögerten viele Jahre lang vor der Einführung des neuen Protokolls und gaben sich gegenseitig die Schuld an einer fehlenden Umsetzung. Die Provider behaupteten, dass es an passender Hardware mangeln würde und die Hersteller bemängelten die geringe Nachfrage seitens der Provider.

Multihoming findet bisher kaum Berücksichtigung

Beim Multihoming kommen mehrere Plattformen parallel zum Einsatz. Beispielsweise wenn in einem Haushalt mehrere Spielkonsolen oder Smart TV´s benutzt werden. Es wird insbesondere dann notwendig, wenn konkurrierende Plattformen zwar inkompatibel sind, jedoch Nutzen aus ihrer Verwendung gezogen werden kann. Experten kritisieren eine bisher unzureichende Beachtung von Multihoming bei der Umstellung auf IPv6. Speziell bei der Identifikation der einzelnen Schnittstellen anstelle von Hosts durch IP-Adressen treten immer noch zahlreiche Effizienzschwierigkeiten beim Routing auf.

Autorenprofil:

ffSavecall telecommunication consulting GmbH
Frank Frommknecht
Position: Key Account Consultant
Webseite: www.savecall.de
Kontakt: kontakt@savecall.de

Vor- und Nachteile eines virtuellen Root-Servers

Jeder, der sich eine Webseite anschaffen möchte, ob für Selbstpräsentierungs-Zwecke, oder auch für kommerzielle Zwecke, kommt um ein Hosting kaum herum. Besonders wenn man ein Unternehmen betreibt, ist Internetpräsenz heutzutage nicht mehr wegzudenken. Webhosting-Anbieter bieten einige Möglichkeiten, um Einzelpersonen oder Unternehmen den Einstieg in die Internet-Welt zu ermöglichen und zu erleichtern.

Die Welt des Hostings

Die Domain-Besitzer können zwischen mehreren Möglichkeiten wählen, sich eine Web-Umgebung für Ihre Webanwendung zu mieten, wobei der Zweck der Webpräsenz eine große Rolle spielt. Je mehr „Raum“ und Service sich die Nutzer wünschen, desto kostenaufwendiger wird die Hosting-Angelegenheit. Wenn man aber klug wählt, lohnt sich das Hostingangebot immer.
Für die Einsteiger unter den Webseiten-Besitzern gibt es für den Anfang das Allernötigste, um ihre Webseite zum Rollen zu bringen. Ein einfaches Webhosting-Packet ist oft ausreichend für Anfänger oder für einfache Webseiten und schon zu einem sehr kleinen Preis monatlich zu bekommen. Diese kostengünstigen Miet-Angebote reichen selbst für besucherstarke Websites. Wünscht man sich allerdings mehr von der Webseite, als pure Präsens, braucht man Freiraum und Flexibilität, die man Dank der Mietangebote von Servern beim Hosting-Anbieter erreichen kann.

Root-Server – für mehr als Anfänger

Bei den Mietangeboten von Servern kann man unter anderem zwischen virtuellen und dedicated Root-Servern unterscheiden. Der größte Unterschied dabei ist der, dass im ersten Fall ein virtuelles System gemietet wird, das wie ein eigenständiger Server funktioniert und in anderem Fall eine tatsächliche Hardware – ein Root-Server. Von den Kosten her unterscheiden sich die Angebote deutlich, was auch kein Wunder ist, wenn man in Betracht zieht, dass alle Ressourcen eines dedicated Root-Server einem einzelnen Nutzer zur Verfügung gestellt werden. Bei sehr komplexen Applikationen, die viele Ressourcen an RAM und CPU-Kapazität z.B. brauchen, sind dedicated Root-Server die richtige Wahl. Wünscht man sich aber große Flexibilität, tolle Leistungsfähigkeit des Servers und kleine Kosten in Einem, sollte man sich einen virtuellen Root-Server mieten. Er ist nicht so kostenaufwendig, wie ein dedicated Root-Server, weil es sich um einen virtualisierten Server handelt, der gemeinsam mit anderen virtuellen Servern einen physikalischen Root-Server nutzt und für den Hosting-Anbieter weniger Aufwand bedeutet. Bei Mittwald bekommt man beim gemieteten virtuellen Root-Server einen voll virtualisierten Root-Server, bei dem man, ähnlich wie beim dedicated Root-Server, als Nutzer kaum Einschränkungen erfährt. Dies bedeutet, dass man eigene Kernel installieren kann und sie selbst konfigurieren kann. Zudem wird dem Nutzer voller Root-Zugriff gewährt. Deshalb verbindet der virtuelle Root-Server das Beste vom dedicated Root-Server und dem sogenannten Shared Hosting. Für die Leistungsfähigkeit der virtualisierten Server ist die Hardwareleistung von größter Bedeutung. Intel Xeon Prozessoren, sowie ein RAID 10, aber auch eine Traffic-Flatrate sorgen für große Leistungsfähigkeit dieser virtuellen Root-Server. Als Nachteil eines virtuellen Root-Servers kann die Tatsache, dass man hierbei mit anderen Nutzern von virtuellen Root-Servern eigentlich dieselbe Hardware teilt, empfunden werden. Ein wirklicher Nachteil ist dies jedoch nicht, da man diese Tatsache gerade wegen der Vollvirtualisierung nicht wirklich spürt. Unternehmen, die große Mengen an Information nicht auf derselben Hardware mit anderen Nutzern haben möchten, oder einfach größere Ressourcen zur Verfügung gestellt wissen möchten, empfinden den dedicated Root-Server als die sichere und flexiblere Wahl. Ein Hosting-Anbieter, dem Sicherheit, Leistung und Kundenbetreuung an erster Stelle stehen, kann Ihnen jegliche Sicherheits-Überlegungen erklären und Ihnen ungerechtfertigte Angst vor dem virtuellen Root-Server nehmen.

Server- und PC-Reinigung

Ohne einen PC und das Internet funktioniert heute kaum noch etwas. Die wenigsten Nutzer haben allerdings auch so weitreichende Kenntnisse, dass sie ihren PC manuell warten können. Eine Wartung ist allerdings in regelmäßigen Abständen wichtig, um eine möglichst schnelle Funktion des Gerätes und eine sichere Arbeitsweise zu unterstützen. Im Laufe von nur einigen Wochen sammeln sich auf dem Computer eine Vielzahl an temporären Dateien, veralteten Downloads und die URL – History, Cookies oder aber auch unvollständige Installationen an, die neben vielen anderen unbrauchbaren und defekten Daten dazu beitragen, dass ein Computer weitaus mehr Zeit für seine Arbeitsprozesse benötigt, als es der Fall sein müsste. Spätestens dann wird es Zeit für den CCleaner Download.

elektronik-sanierungNachdem überflüssige Dateien oder veraltete Programme selbst gelöscht wurden, übernimmt der CCleaner alles weitere. Mit einem dazu gehörigen Registry Cleaning Tool lassen sich die verwendeten Programme übersichtlich einsehen. Dieses Tool lädt besonders schnell und benötigt nur wenige Klicks, um es anzuwenden. Ein weiteres Tool dient ausschließlich der Entfernung von allen Daten, die sich auf der Festplatte befinden. Sofern ein Computer z.B. den Besitzer wechseln soll, ist eine gründliche Festplattenreinigung empfehlenswert. Mit dem kostenlosen Download von CCleaner stellt nun auch diese Tatsache einen Nutzer nicht mehr vor ein Problem. Ein weiteres Plus dieses Programms ist die Autostart Menükontrolle, welche sogar als Textdatei gespeichert und als diese versendet werden kann. Da besonders die Autostart Funktion eines Computers durch „Überfüllung“ dafür verantwortlich ist, dass ein Rechner viel Zeit zum Hochfahren benötigt, kann mit dieser Bereinigung schon viel erreicht werden.

Und was passiert wenn wir von echten Verunreinigungen der realen Welt sprechen? Sprich Staub, Dreck oder gar Wasser-/Brand- und Bauschäden an IT-Systemen? Dann kann wirklich nur eine sehr professionelle Sicherung und Reinigung helfen. Spezielle Anbieter unterstützen auch hierbei. IT-Server-Reinigung.de ist einer dieser Anbieter.