langsames XP neu installieren

Wer heutzutage Windows XP auf seinem Rechner hat, kann sich ja bekanntlicherweise glücklich schätzen, verglichen mit denen, die auf Vista umgestiegen sind oder wurden. Aber auch XP hat unter Umständen so seine Macken. Denn damit kann der Rechner im Laufe der Zeit ziemlich langsam werden. Gerade wenn man immer mal wieder neue Software installiert, wird die Geduld irgendwann ganz schön auf die Probe gestellt. Bis der Rechner mal hochgefahren ist, dauert es schon einige Minuten. Wenn man dann vom Desktop ein Programm startet, kann man erst noch dies und das erledigen, bis das Programm dann auch tatsächlich geöffnet ist. Denn wenn man zu ungeduldig ist und in Ermangelung einer direkten Reaktion des Rechners nochmal auf das Icon klickt, hat man nachher für jeden Klick eine Ausgabe des Programms geöffnet. Computer sind eben doof… Da das auch auf privaten Rechnern passieren kann, und da nicht jeder PC-Benutzer auch gleich ein „Software-Freak“ ist, hier ein paar Tipps für die Neuinstallation. Ich habe diese Prozedur nämlich gerade selber durchgeführt. Erst wollte ich zwar Hochrechnungen anstellen, wie lange die Installation alles in allem dauert und wie lange ich dann mit dem neu gemachten Rechner arbeiten muss, bis ich diese Zeit wieder raus habe. Aber als dann auch noch die Internet-Verbindung sehr unzuverlässig wurde, wandelte sich mein Motto dann schlagartig zum „jetzt reicht’s.“ Und nach den ersten Tagen mit dem runderneuerten Rechner kann ich nur jedem empfehlen, mit diesem Schritt nicht allzulange zu warten. Mit folgenden Tipps sollte es auch um einiges leichter gehen: Vorbereitung Für Home-Versionen reicht die Recovery-CD, die mit dem Rechner geliefert wurde, völlig aus. Sie ist nämlich nicht nur für den Notfall gedacht, wenn gar nichts mehr geht, sondern liefert auch eine Neuinstallation von XP. Die Seriennummer für die Version klebt meist am Rechner. Bei einem Notebook schaut man am besten vor dem Einschalten nach diesem Aufkleber und schreibt sich die Nummer ab – wenn sie wie bei mir auf der Unterseite klebt. Der Hersteller sollte eine weitere CDs mit Treibern beigelegt haben. Bei mir hieß sie „Drivers and Utilities“. Zur Not bekommt man diese Helferlein aber auch aus dem Internet. Datensicherung vorher nicht vergessen! Dazu gehören alle Arbeits-Dateien, die man noch braucht Bookmarks bzw. Favoriten aus dem Browser Mails und Adressen aus dem Postfach, sofern ein lokales Mailprogramm benutzt wird Podcasts Zugangsdaten, z.B. für ftp-Verbindungen Am besten macht man sich auch eine kleine Liste aller installierten Programme, damit man bei der Neuinstallation einfach abhaken kann. Natürlich kann es nicht schaden, bei dieser Gelegenheit auch mal aufzuräumen, denn erfahrungsgemäß sammeln sich ja auch auf Festplatten im Laufe der Zeit einige Dinge an, die man eigentlich nicht mehr braucht. XP-Neuinstallation Wenn man alles richtig macht, braucht man dafür ungefähr 1 Stunde. Einfach CD einlegen und auf den Startbildschirm warten. Dort kann man – noch auf einer grafischen Oberfläche – auswählen, dass man XP neu installieren möchte. Danach ist erstmal Schluß mit den gewöhnlichen Oberflächen, aber die Benutzerführung ist trotzdem ganz passabel. Der Rechner „erzählt“ immer, was er gerade tut und fragt nur ab und zu mal nach, was er als nächstes tun soll. Am besten lässt man ihn im ersten Schritt alle Daten löschen und im zweiten dann XP neu installieren. Zwischendurch fährt sich der Rechner mal runter und wieder hoch. Dabei sollte man ihm alleine lassen, denn dann kehrt er nach der eigentlichen Installation wieder zur grafischen Oberfläche zurück und schließt diese ab. Drückt man nach dem Hochfahren voreilig die Return-Taste, kommt man nämlich wieder in die Installationsrunde… Keine Sorge, wenn die Bildschirmauflösung nach Abschluss der Installation noch etwas wirr ist. Wenn die Treiber installiert sind, kommt das alles von selber wieder ins Lot. weitere Installationen Als nächstes empfiehlt sich die Neuinstallation des Virenscanners, denn Windows nervt schon die ganze Zeit mit der Warnung, dass der Rechner eventuell gefährdet sein könnte. In diesem Punkt hatte ich zunächst ein wenig Sorgen, dass das Programm oder der Server, mit dem ich ja zwecks Updates kommunizieren muss, meine redlichen Absichten nicht verstehen und mir den Zugriff verweigern könnte. Aber ich musste nur die Frage bejahen, ob die Rechte nun für diesen Rechner gelten sollen. So jedenfalls geht es mit G-Data, aber ich nehme an, auch die anderen Programme verhalten sich ähnlich. Als nächstes steht dann die Installation von Druckern und anderen Zusatzgeräten auf dem Programm. Danach kann man sich eigentlich beliebig durch die Liste der benötigten Programme hangeln. Wer Freeware aus dem Internet herunterladen muss, kann dies sofort tun, da ja mit XP auch ein Internet Explorer kommt. Wer das nicht möchte, kann sich natürlich vorher noch die Firefox-Installationsdatei herunterladen und diese dann von CD oder USB-Stick übertragen. Wenn alle Programme installiert und alle Dateien vom Sicherungsmedium wieder übertragen sind, sollte man zum Abschluss den Virenscanner über alle Dateien laufen lassen. Komischerweise hat meiner in seinem eigenen Firewall-Ordner eine infizierte Datei gefunden…. Alles in allem war ich an 3 Tagen mit der Neu-Installation beschäftigt. Natürlich nicht drei ganze Tage, und während im Hintergrund ein Download lief, konnte ich im Vordergrund schon wieder etwas arbeiten. Und nun habe ich auch von den Freeware-Programmen die neuesten Versionen, so dass es sich fast so anfühlt, als hätte ich einen neuen Rechner. Und es scheint wirklich so, als hätte sich XP auch auf die Internet-Verbindung ausgewirkt, denn seit der Neuinstallation gab es dort keinerlei Ausfälle, während es in den Wochen zuvor immer wieder zu Komplett- oder Teilausfällen beim Zugriff auf’s Internet gekommen war. Aber verschreien wir es nicht und klopfen wir lieber auf Holz, dass es so bleibt. Wie gesagt, ich kann die Neu-Installation nur empfehlen und wünsche allen viel Erfolg dabei.

Weiterlesen...

Windows Vista oder Ubuntu, wenn XP nicht mag?

Nachdem bei meinen einigermaßen alten Rechner letzte Woche die Festplatte den Geist aufgegeben hat, musste nun eilig Ersatz her. Dell hat auch sehr schnell geliefert, viel schneller als angekündigt, offenbar die Notwendigkeit ahnend. Soweit, so gut. „Kannst du dir vorstellen, mit Ubuntu zu arbeiten?“, fragt mich unser Sys-Admin. Nach Analyse der Programme, die ich so täglich brauche, muss er dann seinen Traum, alle Rechner nach und nach auf Ubuntu umzustellen, zumindest bei mir aufgeben. Office hat denn doch so seine Vorteile verglichen mit Open (oder Star) Office, die man im professionellen Bereich schon spürt. Also legt er die Windows XP-CD ein. Abgesehen von dem unsäglichen Krach, den das CD-Laufwerk verbreitet, kommt schnell eine unliebsame Überraschung: Blue Screen… Wie sich der alte Rechner verabschiedet hat, so begrüßt uns der neue Rechner? Neja, nachdem der zweite Versuch auch mit dem Blue Screen endet, streckt sich das Fragezeichen aus der ursprünglichen Frage zum Ausrufezeichen. Windows Vista gibt es nicht, bleibt also Ubuntu. Da sitze ich nun, als internes „Versuchskaninchen“ für Ubuntu als Nutzer von Word, Excel, Visio und grundlegenden Funktionen der Bildbearbeitung. Beim Browser und bei der Mailbox gibt es weder Überraschungen noch Umstellungsprobleme, denn Firefox und Thunderbird sind ja wohlbekannt. Dass der Thunderbird auch eine RSS-Funktion anbietet, ist durchaus praktisch und spart ein weiteres Programm. Aber was ist mit Office? Zum Glück gibt’s CrossOver, denn damit lassen sich alle bisherigen Dateien öffnen, bearbeiten und speichern. Ja, aber – und das ist schon ein dickes aber: Öffnen und Speichern vom Server ist nun nicht mehr möglich – die Datei ist dann leer. Dateien lassen sich nur mit Open Office vom Server öffnen. Wenn ich sie mit Office öffnen möchte, muss ich mir eine lokale Kopie anlegen, diese bearbeiten und dann später wieder auf den Server verschieben. Sollte ich das mal vergessen, gibt es unter Umständen Durcheinander, weil die aktuellste Version ja nicht allgemein zur Verfügung steht. Und solange ich lokal auf meiner Kopie arbeite, könnte ein XP-ler auf dem Original arbeiten. Und sollten wir nicht voneinander wissen und er vor mir fertig sein, überschreibe ich seine Änderungen beim Rücksichern meiner lokalen Kopie… Also müsste ich das Original mit OpenOffice öffnen, damit es gesperrt ist, dann die Kopie mit Office bearbeiten, das Original wieder schließen und mit der bearbeiteten Kopie überschreiben… Vielleicht kann ich mich ja wenigstens mit mir selbst einigen, für Tabellen Open Office statt Excel zu nehmen? Der gute Wille war da, aber Open Office hat sich in die ewigen Jagdgründe verabschiedet, als ich versucht habe, die Symbolleiste um die Schaltflächen zum Einfügen und Löschen von Zeilen und Spalten zu ergänzen. Die brauche ich nun mal, und wer das nicht kann, darf nicht auf allzugroße Sympathie meinerseits hoffen. Nächste Aufgabe: Eine wirklich einfache, vorhandene Zeichnung aus einem Dreieck, ein paar Linien, Pfeilen und Text in Visio kopieren und leicht modifizieren. Und wieder eine Überraschung: Visio braucht Minuten, bis die Zeichnung überhaupt einmal dargestellt wird. Jedes Kästchen des Hintergrunds wird scheinbar individuell gemalt, und bis mein Dreieck dann endlich noch seinen Rand bekommen hat…da wäre ich mit der Hand schneller gewesen. Der Versuch, in einen der Pfeile einen anderen Text einzufügen, wird ebenfalls zum Geduldsspiel, bei dem ein Kalligraph in seiner schönsten Schrift sicher auch gewinnen würde. Ja und das Verschieben des Pfeils erinnert mich dann an Blinde Kuh, denn mit jedem Betätigen der Pfeiltaste verschwinden der Pfeil und auch Teile des Dreiecks, werden dann erst wieder hübsch neu gemalt, gefüllt, umrandet… So kann man also bei aller Liebe nicht arbeiten. Was gibt’s alternativ? DIA – schaut auf den ersten Blick wie ein Visio-Zwilling aus. Aber auch hier verhält es sich wie mit Word und dem OpenOffice Writer: Es sind die Kleinigkeiten, die den Unterschied machen und die Akzeptanz zumindest im professionellen Bereich sehr erschweren. Nur ein paar Beispiele: Möchte man in DIA in einem Textfeld einen Buchstaben löschen, muss man den Cursor rechts neben diesen Buchstaben stellen und ihn mit der Backspace-Taste löschen. Nimmt man die Del-Taste, verschwindet das gesamte Textfeld. In Zeichnungsobjekte (z.B. Kästen oder Pfeile) kann man direkt keinen Text einfügen. Der Doppelklick, der in Visio zum Cursor für die Texteingabe führt, öffnet in DIA nur den Bereich zum Bearbeiten der Objekteigenschaften. Und vorgefertigte Pfeile kann man nur insgesamt vergrößern, nicht jedoch das Pfeilende verlängern, damit ein längerer Text hineinpasst. Da ich (vielleicht?) ein symbolleistengewöhnter Mensch bin, vermisse ich diese natürlich in DIA, wo ich wohl alle Befehle zum Gruppieren und Anordnen von Objekten über das Menü holen muss. Einigermaßen nett von DIA ist zwar, dass es meine Zeichnung direkt als *.png oder *.jpg-Datei speichern kann. Aber das ist letztendlich bestenfalls die halbe Miete, denn meine Bilddatei soll nur mein Dreieck enthalten, ohne weiße Ränder und in einer gegebenen Breite, z.B. damit es sich schön in einen Blogbeitrag einfügen lässt. Ohne Grafikprogramm komme ich also nicht weiter, auch wenn ich kein Designer bin. Leider vertragen sich weder Macromedia Fireworks noch Adobe Photoshop mit Ubuntu, so dass mir nur der liebe kleine Gimp bleibt. Das Logo ist zwar auf dem Desktop nett anzuschauen, aber das zählt ja nicht im Berufsalltag. In der Zeit, die ich brauche, bis ich die zwei getrennten Fenster ordentlich ausgerichtet und meine Bilddatei auf den Desktop kopiert habe, war ich vorher mit Fireworks schon fertig mit meinem Bild… Und auch der Versuch, eine Powerpoint-Präsentation anzusehen, war mehr der Blick über die Schulter eines Malers. Dass ein paar Schrifttypen gefehlt haben, war ja noch zu verschmerzen, aber dass man zusehen kann (muss?), wie Linien gezogen werden, ist nicht wirklich akzeptabel. Ich bin zwar kein ausgesprochener Microsoft-Hasser, andererseits gerne auch mal bereit, gegen den Strom zu schwimmen. Aber da ich ja nicht für’s Warten auf Visio und das Rumkopieren von Dateien bezahlt werde, werden sich unsere „Techies“ doch noch was einfallen lassen müssen, wie mein Rechner mit XP zum Laufen gebracht werden kann. Wie die Lösung aussieht, verrate ich, wenn ich sie habe. Bis dahin kann man sich nur wundern, wie gefügig sich doch die Hardware-Hersteller offensichtlich an den Software-Riesen halten. Wer ähnliche Erfahrungen gemacht hat oder einen […]

Weiterlesen...

Mobil ins Internet – Teil 3

Im dritten und letzten Teil der Abhandlung über den mobilen Internet-Zugang geht es um weitere Rahmenbedingungen, die das Surfen angenehm machen oder erschweren. Verwirrung besteht bei den mobilen Surfern oft hinsichtlich der Kosten. Üblicherweise wird der mobile Traffic nach Volumen bezahlt, aber viele Nutzer sind der Meinung, dass die Dauer der Verbindung oder die Anzahl der geladenen Seiten über die Kosten entscheiden. Und so wird oftmals die Verbindung schnell beendet, sobald die Seite auf dem Handy geladen ist. Wer zu Hause eine WLAN-Verbindung mit Flatrate besitzt, kann diese auch für den mobilen Internetzugriff nutzen. Auch einige WLAN-Hotspots sind kostenlos, während andere bis zu 7 EUR für eine Stunde in Rechnung stellen, auch wenn der Benutzer nur schnell eine Information benötigt. Normales Surfen erfordert keine besondere Sicherheit. Sobald jedoch persönliche Daten wie Kreditkartendaten übertragen werden, ist Vorsicht geboten. Gerade beim WLAN machen sich die Nutzer aber oft keine Gedanken über diesen Aspekt und glauben, dass die Anmeldung bei einem passwortgeschützten WLAN bereits ausreichend Sicherheit gibt. Browser für den mobilen Internetzugang formatieren den Seiteninhalt speziell für das Endgerät und zeigen hohe, schmale Spalten an. Der Wiedererkennungswert vom PC ist damit nicht immer gegeben, und auch weiße Flächen auf dem Handy lassen sich manchmal nicht vollständig vermeiden. Eine Webseite, die für ein spezielles Gerät optimiert ist, erreicht natürlich die höchste Nutzerfreundlichkeit. Da dies nicht immer möglich ist, sollten interaktive Seiten aber auf jeden Fall relativ kurz sein. Seiten mit statischen Informationen können etwas länger sein. Leichter hat es der Nutzer, wenn er die Webseite kennt und weiß, wo sich der benötigte Link oder die wichtigsten Inhalte befinden. Denn Befragungen haben ergeben, dass er am PC die gleiche Strategie wie am Mobiltelefon nutzen möchte. Ausblick Bei über 50 Milliarden Web-Seiten greifen die Nutzer trotz Bookmarks und Auto-Vervollständigung bei der Eingabe von URLs immer häufiger auf Suchmaschinen zurück, selbst wenn sie bekannte Seiten finden wollen. Mit der richtigen Kombination an Suchbegriffen lassen sich Unterseiten direkt finden und aufrufen. Das ist im mobilen Bereich besonders dann interessant, wenn die Startseite groß ist und eine lange Ladezeit hat. Mit zunehmender Verbreitung des mobilen Surfens wird auch mobile Werbung immer mehr zum Thema. Auch hier gilt wie bei den Inhalten, dass Texte besser ankommen als Videos und Banner. Es gibt jedoch Unterschiede hinsichtlich des Alters der Nutzer. Auch Google experimentiert bereits mit AdSense für Mobiltelefone. Die 2-zeiligen Anzeigen enthalten einen Link und die Möglichkeit, den Werbenden aus der Anzeige heraus anzurufen. Und einige Unternehmen bieten bereits spezielle Seiten für mobile Geräte an, was ja nicht zuletzt durch die .mobi-Domains unterstützt wird. Zu diesem Thema wird also sicher in Zukunft noch einiges zu berichten sein.

Weiterlesen...

Mobil ins Internet – Teil 2

Im zweiten Teil des Beitrags zum mobilen Internetzugang geht es um die Eigenschaften der mobilen Geräte, die natürlich einen großen Einfluss auf die Benutzerfreundlichkeit haben. Die Bildschirmgröße ist der wichtigste Aspekt, der den PC von einem mobilen Gerät unterscheidet. Die Bildschirmgröße eines PDAs/Communicators wird als ausreichend betrachtet, auch wenn sich dort teilweise das Schlüsselloch-Problem ergibt, wenn man nicht weiß, wie groß die Seite tatsächlich ist und wo sich die wichtigen Inhalte befinden. Kleinere Bildschirme sind für das mobile Surfen ungeeignet, selbst wenn die Auflösung des Bildschirms die Lesbarkeit auch kleiner Buchstaben erhöht. Auf einem Mobiltelefon stehen nur begrenzt viele Tasten zur Verfügung, und die Maus fehlt komplett. Wer allerdings das Surfen mit der Handy-Tastatur gelernt hat, wird eine PC-Tastatur möglicherweise kompliziert finden. Die Eingabe einer URL ist am Handy aber schwierig und sollte durch eine Auto-Vervollständigung erleichtert werden, denn auch Bookmarks lassen sich mit der eingeschränkten Tastatur nicht so einfach finden. Und schließlich kann der mobile Surfer die diversen Effekte, die erscheinen, wenn man am PC mit der Maus über Seitenelemente fährt, nur eingeschränkt nutzen. Im Innenleben des Rechners bestimmt die Speicherkapazität die Größe des Cache und damit die Anzahl der Seiten, die ohne erneutes Laden angesehen werden können. In Standard-Handys reicht der Cache nicht einmal für eine ganze Seite aus. Ungetrübtes mobiles Surfen erfordert Batterien mit hoher Kapazität, damit die Aktivitäten auch wirklich mobil, also unabhängig von einer stationären Stromquelle durchgeführt werden können. Das Gerät bestimmt auch die Geschwindigkeit, mit der man sich im Netz bewegen kann. Untersuchungen haben ergeben, dass ein PC im gleichen WLAN noch immer schneller ist als das mobile Gerät. Die Datenübertragungsrate im WLAN liegt bei 54 Mbps. Im Vergleich dazu kommt UMTS nur auf schlappe 2 Mbps, was allerdings schon wieder ein riesiger Fortschritt im Vergleich zu den sonst üblichen Übertragungsraten von 9,6 bis 236,8 kbps ist. Mobile Verbindungen sind also wesentlich langsamer als Festnetzverbindungen, und ein ausreichend gutes Netz ist zudem auch nicht immer und überall vorhanden. Es gibt keine verlässlichen Werte für die höchste akzeptable Ladezeit, da dies auch von den Erwartungen der Nutzer abhängt. Texte werden relativ schnell geladen, während Bilder wesentlich länger brauchen. Besonders die Navigationselemente müssen aber schnell zur Verfügung stehen, noch bevor die Bilder vollständig geladen sind. Forsetzung folgt…

Weiterlesen...

Mobil ins Internet – Teil 1

Das Leben wird immer mobiler, und das Internet immer wichtiger. Also ist es naheliegend, beides zu verbinden, denn der Zugang zum Internet ist inzwischen mit Mobiltelefonen ebenso technisch möglich wie mit PCs. In ihrer Dissertation mit dem Titel „Web browsing on mobile phones – Characteristics of user experience“ hat sich Virpi Roto an der Helsinki University of Technology, Department of Computer Science and Engineering, mit diesem Thema auseinander gesetzt. In einem 3-teiligen Blogbeitrag werden die wichtigsten Erkenntnisse aus der Arbeit und ein paar aktuelle Trends in Kurzform vorgestellt. Zum mobilen Surfen benötigt man ein mobiles Endgerät, eine Verbindung ins Netz und Webseiten. Da diese drei Komponenten aber von unterschiedlichen Parteien erstellt werden, die voneinander abweichende Ziele verfolgen, macht das mobile Surfen noch nicht so richtig Spaß. Auch wenn die Möglichkeiten des mobilen Zugriffs auf das Internet immer umfangreicher werden, ist die Technologie noch längst nicht voll ausgereift. Die Bedeutung des Internets für unser tägliches Lebens steigt immer weiter. Dadurch wird auch die Nutzung des Internets mit mobilen Geräten immer wichtiger. Für die junge Generation wird dies eine Selbstverständlichkeit, denn bereits heute surft jede japanische Hausfrau ohne besondere technische Affinität mobil im Internet, um sich beispielsweise über den Zugfahrplan zu informieren. Der mobile Zugang ins Internet hat auch für die Entwicklungsländer eine hohe Bedeutung, da ein PC dort für einen Durchschnittshaushalt unerschwinglich ist. Anwendungsbereiche Mobiles Surfen ist natürlich in Mobilitätsphasen angesagt. Auf weiteren Reisen kann man damit Informationen aus der Heimat abrufen, per Webmail kommunizieren oder Informationen für die weitere Reise (z.B. Wetterbericht, Fahrpläne) abrufen. Wichtig ist in diesem Fall, dass das Sammeln der Informationen nicht länger als 20 Minuten dauern darf. Neben der Suche nach Informationen erfüllt das mobile Surfen auch den Wunsch nach Unterhaltung. Wartezeiten und Fahrten in öffentlichen Verkehrsmitteln können damit überbrückt werden. Der mobile Surfer wirkt cool und vermeidet unangenehme Situationen, wenn er sich z.B. nicht durch sein Gegenüber im Zug anstarren lassen muss. Die Nutzung des Internets am PC und auf einem mobilen Gerät schließen sich nicht gegenseitig aus, sondern ergänzen sich und werden bewusst gewählt. Sei es, dass der Blogger im Zug auf dem Weg ins Büro seine Arbeit mobil beginnt und am PC abschliesst, sei es, dass das Mobiltelefon benutzt wird, wenn man dort eine Information schon gefunden hat, bevor der PC hochgefahren wäre. Und wenn der Benutzer gemütlich auf der Couch oder im Bett liegen will, wird er sein „relaxed browsing“ bevorzugt mit dem mobilen Gerät durchführen. Die jüngeren Nutzer (20-27 Jahre) üben sich im Multitasking, schauen nur kurz auf den Bildschirm und widmen sich anderen Dingen, bis ihnen der Vibrationsalarm des Handys anzeigt, dass die gewünschte Seite nun vollständig geladen ist. Die älteren Nutzer (40-47 Jahre) schauen durchschnittlich 2 Sekunden länger auf den Bildschirm. Neben dem gesamten Web, das über HTML-Browser zugänglich ist, entstehen inzwischen verschiedene spezialisierte Seiten für WAP-, i-Mode-, Sprach-Browser usw. Das W3C setzt sich deshalb in seiner „One Web-Initiative“ dafür ein, dass der gleiche Inhalt von jedem Endgerät aus erreichbar wird. Noch gibt es aber eine ganze Menge Unterschiede beim Zugang zum Internet mit dem PC und einem mobilen Gerät, die im nächsten Teil des Beitrags detaillierter vorgestellt werden. Fortsetzung folgt…

Weiterlesen...

NAS – Network Attached Storage System für KMU’s

Ein Problem welches mittlerweile viele kleine aber auch Mittelständische Unternehmen haben, betrifft die Speicherung und vor allem Absicherung der elektronischen Datenflut die oft nur schwer zu bewältigen ist. Während man früher im großen Stil sogenannte Disk Arrays aufstellte um große Datenmengen sicher zu speichern gibt es mittlerweile, gerade für kleine Unternehmen, sehr viel elegantere und vor allem kosten günstigere Möglichkeiten dem Datenstrom Herr zu werden. Viele Firmen haben aber immer noch eine ganz klassische Netzwerkstruktur in der ein Fileserver die zentrale Rolle spielt. Alle Mitarbeiter haben mehr oder weniger Zugriff auf die Netzlaufwerke des Fileservers. Hierbei ist aber gerade die Skalierbarkeit und die Wartung immer das Problem. Sobald der Platz nicht mehr ausreicht wird es immer komplizierter die Kapazitäten wieder zu erhöhen, dabei aber die Sicherheit nicht zu vernachlässigen. Abhilfe gegen das oben genannte Problem versprechen sogenannte NAS Systeme (Network Attache Storage). Hierbei handelt es sich eigentlich um nichts anderes, als um einen Festplattenverbund der über einen Controller im Netzwerk verfügbar gemacht wird. Als Betriebssysteme dienen hier oft spezielle Linux derivate die auf einem ROM gespeichert sind und somit geschützt vor böswilligen dritten Ihren dienst verrichten können. Die Einrichtung solcher Systeme erfolgt meist über einen Webbrowser und ist auch für nicht Systemadministratoren durchführbar. Ein riesen Vorteil solcher NAS Systeme ist die Möglichkeit mehrere Platten in einem RAID (Redundant Array of Independent Disks) zu betreiben. Hierbei wird gerade im Bereich der KMU’s auf einen RAID 5 Verbund gesetzt. RAID 5 bietet einen Kompromiss aus Performance und Parität. Die nutzbare Plattenkapazität errechnet sich hierbei wie folgt: s × (n – 1) wobei s die kleinste Platte im Array und n die Anzahl der Platten wiederspiegelt. Ein Praxis berichtet eines relativ günstigen 19″ NAS Systems, dem Infrant ReadyNAS 1100, welches es schon für weit unter 2000 € gibt, finden Sie demnächst hier.

Weiterlesen...

NAS – Network Attached Storage System für KMU's

Ein Problem welches mittlerweile viele kleine aber auch Mittelständische Unternehmen haben, betrifft die Speicherung und vor allem Absicherung der elektronischen Datenflut die oft nur schwer zu bewältigen ist. Während man früher im großen Stil sogenannte Disk Arrays aufstellte um große Datenmengen sicher zu speichern gibt es mittlerweile, gerade für kleine Unternehmen, sehr viel elegantere und vor allem kosten günstigere Möglichkeiten dem Datenstrom Herr zu werden. Viele Firmen haben aber immer noch eine ganz klassische Netzwerkstruktur in der ein Fileserver die zentrale Rolle spielt. Alle Mitarbeiter haben mehr oder weniger Zugriff auf die Netzlaufwerke des Fileservers. Hierbei ist aber gerade die Skalierbarkeit und die Wartung immer das Problem. Sobald der Platz nicht mehr ausreicht wird es immer komplizierter die Kapazitäten wieder zu erhöhen, dabei aber die Sicherheit nicht zu vernachlässigen. Abhilfe gegen das oben genannte Problem versprechen sogenannte NAS Systeme (Network Attache Storage). Hierbei handelt es sich eigentlich um nichts anderes, als um einen Festplattenverbund der über einen Controller im Netzwerk verfügbar gemacht wird. Als Betriebssysteme dienen hier oft spezielle Linux derivate die auf einem ROM gespeichert sind und somit geschützt vor böswilligen dritten Ihren dienst verrichten können. Die Einrichtung solcher Systeme erfolgt meist über einen Webbrowser und ist auch für nicht Systemadministratoren durchführbar. Ein riesen Vorteil solcher NAS Systeme ist die Möglichkeit mehrere Platten in einem RAID (Redundant Array of Independent Disks) zu betreiben. Hierbei wird gerade im Bereich der KMU’s auf einen RAID 5 Verbund gesetzt. RAID 5 bietet einen Kompromiss aus Performance und Parität. Die nutzbare Plattenkapazität errechnet sich hierbei wie folgt: s × (n – 1) wobei s die kleinste Platte im Array und n die Anzahl der Platten wiederspiegelt. Ein Praxis berichtet eines relativ günstigen 19″ NAS Systems, dem Infrant ReadyNAS 1100, welches es schon für weit unter 2000 € gibt, finden Sie demnächst hier.

Weiterlesen...