Monthly Archives: Dezember 2015

Raspberry Pi: Der Winzling zum Hammerpreis

Von | 31. Dezember 2015

Auf 85x54mm und mit nur 40 Gramm Gewicht kommt der Mini-Computer Raspberry Pi auffällig unauffällig daher. Doch lassen Sie sich von den handlichen Maßen nicht täuschen – dieser Einplatinenrechner ist ein echter Alleskönner! Kaum ein anderer MicroPC auf dem Markt ist so flexibel einsetzbar wie der Raspberry Pi. Einige besonders kreative Anwendungsmöglichkeiten stellen wir Ihnen später vor, zuerst allerdings: Was ist dieser Pi denn genau?

Download

System-on-Chip (SoC) für wenig Geld

Die Idee hinter diesem günstigen, kleinen aber dennoch leistungsfähigen Einplatinencomputer entstand an der Universität Cambridge. Um eine möglichst offene Softwareentwicklung zu ermöglichen, entschieden sich die Verantwortlichen bereits sehr früh für ein Linux-Basiertes System auf Basis eines ARM-Microprozessors. Mit dem Raspberry Pi 2 Modell B kommt erstmals eine 4-Kern-CPU mit 900 MHz Chiptakt zum Einsatz. Außerdem wurde in der aktuellen Revision der Arbeitsspeicher im Vergleich zum Vorgängermodell auf 1024 MB verdoppelt. Als Anschlüsse stehen bis zu vier USB 2.0-Ports (über Hub) zur Verfügung. Zur Videoausgabe verfügt die aktuelle Serie über einen HDMI-Port, dessen Tonausgabe durch einen 3,5 mm Klinkenstecker ergänzt wird. Dank einem microSD-Kartenleser können die kleinen SD-Karten als Festplatten verwendet werden. Um den Pi in ein Netzwerk einzubinden, ist ein 10/100 Mbit Ethernet-Port vorhanden. Mit Strom versorgt wird der Winzling über einen microUSB-B-Anschluss. Die maximale Leistungsaufnahme beschränkt sich hier auf beeindruckend sparsame 4,0 Watt (800 mA)!

Die Qual der Wahl: Welches Betriebssystem für meinen Pi?

Spannend wird es nun, wenn man die unterschiedlichen verfügbaren Betriebssysteme betrachtet. Da der Raspberry Pi auf einer ARM-Architektur basiert, ist spezielle Software nötig. x86-kompatible Programme können nicht ohne Weiteres auf dem MiniPC verwendet werden. Daher haben sich innerhalb der sehr aktiven Bastler-Community diverse Linux-Derivate als Betriebssystem etabliert. Empfohlen wird die Debian-8-Variante Raspbian. Dieses Betriebssystem stellt sämtliche passende Firmware für die Raspberry-Pi-Modelle zur Verfügung. Doch auch Microsoft hat das Potenzial des kleinen Gerätes erfasst und bietet eine spezielle Version von Windows 10 (welche allerdings nicht mit unter Windows lauffähigen Programmen kompatibel ist) an. Diese Windows 10 IoT Core genannte Version kann kostenlos bei Microsoft bezogen werden. Auch sind unter Bastlern diverse Android-Versionen im Umlauf, welche größtenteils wunderbar mit dem Raspberry Pi harmonieren.

83-16320

Haufenweise Hardwareerweiterungen bereits verfügbar

Um Ihrem Kleinstrechner noch etwas mehr Power zu verleihen, stehen diverse Hardwareerweiterungen zur Verfügung. Vom Mini-Wireless-LAN-Adapter, über einen Touchscreen und diverse Gehäuse ist alles vorhanden, was den Raspberry Pi perfekt auf die von Ihnen angedachte Nutzung vorbereitet. Und hier spielt das Gerät seine volle Stärke aus: Durch die offene Gestaltung kann er, mit der richtigen Software versehen, praktisch überall eingesetzt werden.

Vielfältige Anwendungsmöglichkeiten

Die mit Abstand beliebteste Anwendung für den Raspberry Pi nutzt den kompakten Computer als Mediacenter. Die Wiedergabe  von Filmen und Serien in FullHD stellen die Hardware vor keinerlei Probleme. Auch lässt er sich natürlich einfach als kleinen Bürocomputer betreiben – aufgrund des geringen Leistungsbedarfs sogar besonders nachhaltig. Der Grundidee des Raspberry Pi nach war das System ursprünglich als günstige Alternative zu Schulcomputern gedacht. So sollen Kinder und Jugendliche mit dem Winzling spielend Programmieren erlernen können. Doch die niedrigen Anschaffungskosten eröffnen einen viel größeren Markt: Mit dem Raspberry Pi soll es in Zukunft möglich gemacht werden, selbst strukturschwache Länder mit ausreichender Technologie zu beliefern, um auch hier für Internetzugang und weitgehenden Zugriff auf Informationstechnologie zu gewährleisten. Doch auch abseits von wissenschaftlichen  oder pädagogischen Anwendungen kann der PC zu vielerlei innovativen Funktionen zweckentfremdet werden. So wird das System mit einigen Anpassungen zur Retro-Videospielmaschine oder Wetterstation. Auch selbstentwickelte Smartphones oder Tablets auf Basis eine Raspberry Pi sind bereits in einschlägigen Foren zu sehen – der Kreativität seiner Nutzer setzt das Gerät also scheinbar kaum Grenzen!

Umstellung auf ALL-IP: ganz einfach mit LANCOM

Von | 29. Dezember 2015

All-IP: Technik für morgen, heute bereits erhältlich – und oft bereits vorhanden

Ab 2018 solle29n alle analogen ISDN-Anschlüsse in zukunftstaugliche ALL-IP-Optionen umgewandelt werden, was einem Ende der altbekannten Festnetztelefonie gleichkommt. So wird es mit All-IP möglich, alle Anwendungen wie Telefonie, Internetzugang, Digital TV und Mobilfunk von einem Anbieter zu beziehen, mit dem heimischen Router als zentraler Schaltstelle. Die Umstellung auf All-IP macht Ihre heimische Infrastruktur nicht nur topaktuell und leistungsfähig, sondern auch zukunftssicher. Dies spart  Ihnen als Anwender nicht nur Internetbandbreite, da Ihr Router sämtliche Voice-Over-IP-Telefonie über extra reservierte Bandbreite leitet, sondern auch bares Geld. Da VoIP-Anlagen bereits von vielen Internetprovidern als Standardhardware geliefert werden, ist die Wahrscheinlichkeit recht hoch, dass Sie die notwendige Hardware sogar bereits besitzen – falls nicht, haben wir eine besonders attraktive Option für Sie: Die LANCOM „Fit für All-IP“-Aktion!

LANCOM macht die Umstellung günstig

Bis zum 31. Oktober haben Sie die Möglichkeit, beim Kauf von einem der ausgewählten LANCOM Routern die All-IP-Option auf Nachfrage gratis zu erhalten. Mit diesem Service kann auch bereits in die Jahre gekommene Hardware – für den Anwender rundum sorglos – auf die neue IP-Technik umgestellt werden. Damit ist ein Upgrade eines LANCOM Routers zu einem IP-ISDN-Gateway technisch realisierbar, was bedeutet, dass ein Mischbetrieb von Voice-Over-IP- und ISDN-Endgeräten möglich ist. Dies erspart Ihnen den Austausch von ISDN-Hardware. Sie können also sämtliche ISDN-Endgeräte bzw. ISDN-TK-Anlagen weiterhin wie gewohnt nutzen. Dies betrifft speziell die LANCOM-Router der Serien 1781, 1631E und 831. Damit bietet der Hersteller seinen Kunden eine äußerst kostengünstige Lösung, um weiterhin die gewohnten ISDN-Netzwerkkomponenten betreiben zu können. Mit den aktuellen LANCOM Routern ist dieser Schritt allerdings nicht notwendig, da die Geräte bereits durchweg ALL-IP-fähig sind.

LANCOM_1783VA-4G_Business-VoIP-VPN-Router_fuer_professionelle_Telefonie_und_Highspeed-Internet

Jetzt auch mehrere ISDN-Anschlüsse an einem Router möglich

Mit den neuesten Geräten der 1783-Serie sind nun auch für Businesskunden professionelle Lösungen für Telefonie und Highspeed-Internet via VDSL, ADSL und WLAN verfügbar. So können mit den beiden Routern 1783VA und 1783VAW nun auch mehr als ein ISDN-Anschluss oder sogar einfache analoge Endgeräte wie Telefone, Faxgeräte oder EC-Cash-Terminals ohne weiteres für VoIP fit gemacht werden.

Alle Aktions-Router finden Sie selbstverständlich bei Jacob Elektronik. Fragen Sie beim Kauf eines LANCOM-Routers einfach nach der All-IP-Option!

 

Touchscreens – Alleskönner unter den Eingabegeräten

Von | 27. Dezember 2015

Touchscreens sind aus unserem Alltag nicht mehr wegzudenken. Egal ob Smartphone, Tablet oder Navigation – überall finden wir Geräte, die auf intuitive Eingaben ganz ohne Tastatur oder Maus setzen. Den Anfang machte 2007 Apple mit der ersten Generation des iPhones, welches auch für andere Hersteller den Weg ebnete und zu einer wahren Flut an Touch-Eingabegeräten führte. Folgender Artikel erklärt Ihnen die unterschiedlichen Technologien, die in Touchscreens verwendet werden, deren Anwendungsmöglichkeiten und wirft einen Blick in die Zukunft dieser Schlüsseltechnologie.

Das LCD-Display seit Jahren Standard

Auch wenn Produktbezeichnungen wie „LED-TV“ es anders vermuten lassen, ist doch das LCD-Display noch immer der am weitesten verbreitete Displaytyp. Doch gibt es gerade im Bereich Displaytechnik spannende Neuentwicklungen. Eine Übersicht über die gängigsten Panel-Typen bieten wir Ihnen im folgenden Absatz.

LCD: liquid crystal display, Flüssigkristallanzeige: Dieser Displaytyp stellt seit dem „Aussterben“ der Röhrenmonitore den Industriestandard dar. Aufgrund der geringen Tiefe sind diese kompakten, sehr gut auf große Formate skalierbaren Displays vielseitig einsetzbar. Beim LCD beeinflussen Flüssigkristalle die Polarisationsrichtung von Licht wenn elektrische Spannung angelegt wird und stellen so die einzelnen Pixel, aus denen sich das Bild zusammensetzt, dar. IPS-Panel sind hier heute weit verbreitet. Diese zeichnen sich durch hohe Farbgenauigkeit, kräftige Farbdarstellung und einen größeren Betrachtungswinkel im Vergleich zu älteren TN-Panels aus. Bildschirme mit IPS-Panel sind besonders für Grafiker und enthusiastische Gamer interessant und stehen von Herstellern wie Eizo, LG Electronics und Iiyama zur Verfügung.

LED: light emitting diode, Leuchtdioden: In der Displaytechnik werden LEDs meist als Hintergrundbeleuchtung für LCD-Displays eingesetzt: Die flachere Bauform, längere Lebensdauer und der niedrigere Strombedarf als bei Kaltkathodenlampen stellen die größten Vorteile dar. Moderne Produkte wie das Apple iPad und viele Smartphones von Apple, Samsung, HTC und Sony setzen auf diese Technik.

OLED: organic light emitting diode, Organische Leuchtdiode: Diese neue Generation von Dioden befindet sich aktuell in der Entwicklung und hat den Sprung auf den Massenmarkt noch vor sich. OLEDs sind eine extrem Dünne, druckbare Schicht, welche keine zusätzliche Hintergrundbeleuchtung benötigt. Sie zeichnen sich durch einen enorm niedrigen Strombedarf aus. Allerdings leiden aktuelle Produkte noch unter der geringen Lebensdauer der organischen Leuchtdioden. Doch sollten sich die OLEDs in naher Zukunft günstig in Masse und mit LCDs vergleichbarer Lebensdauer produzieren lassen, warten einige spannende neue Technologien auf die Marktreife. Besonders biegsame oder transparente Bildschirme und ePaper, also „digitale“ Seiten für Magazine, Zeitungen und Bücher, sind dann ohne Weiteres realisierbar.

Von der Hosentasche bis in die Fertigungslinie – überall Touchscreens

ME_Touchscreen_webzoom

Greifen Sie in Ihre Tasche. Schauen Sie auf Ihren Schreibtisch. Setzen Sie sich an das Steuer Ihres Autos. Ich garantiere Ihnen, dass sie den gesamten Tag über nicht weiter als einen Meter vom nächsten Touchscreen entfernt sind. Diese Omnipräsenz berührungssensitiver Geräte verdeutlicht eindrucksvoll, wie flexibel und einfach sie einzusetzen sind. Sowohl im Privatanwenderbreich als auch in der Wirtschaft, den Medien, der Industrie und zunehmend auch der Medizin und der Kunst sind die kleinen Helfer nicht mehr wegzudenken. Doch mit der Vielzahl an Arbeitsumgebungen und Aufgaben steigen auch die Anforderungen an die Technologie.

Unterschiedliche Touch-Technologien für alle Anwendungsbereiche

Da Touchscreens in vielen unterschiedlichen Umgebungen zum Einsatz kommen, werden unter Umständen unterschiedliche Methoden zur Eingabe benötigt. Hieraus erklärt sich der Umstand, dass heute mehrere grundsätzlich verschiedene Technologien zur Berührungserkennung bei Bildschirmen zur Verfügung stehen. Nachfolgend finden Sie eine kurze Übersicht über die gängigsten Techniken.

Resistive Touchscreens: Diese reagieren auf Druck, der zwei leitfähig Schichten verbindet. Daraufhin wird die Position der Druckstelle über den elektrischen Widerstand ermittelt. Unter einer transparenten Kunstoffschicht liegt eine mit einem Leiter behandelte Glas- oder Plexiglasscheibe die die elektronischen Bauteile vor Beschädigungen schützt. Diese Technologie wurde in frühen Tablets, PDAs und Smartphones eingesetzt. Aufgrund der Robustheit findet sie heute noch in Industrie-Panels und Industrie-PCs Anwendung.

Kapazitive Touchscreens: Die inzwischen am weitesten verbreitete Bauform. Sie nutzt zwei Ebenen, auf denen ein leitfähiges Muster (Gitter) angelegt ist. Dieses dient dem lokalisieren von Berührungen. Der wichtigste Vorteil kapazitiver Touchscreens: Die Eingabe erfolgt auf einer robusten Glasoberfläche, so dass Kratzer und Beschädigungen seltener auftreten. Insbesondere durch neue Werkstoffe wie „Gorilla-Glas“ wurde der Schutz vor mechanischen Beschädigungen weiter verbessert. Mit dieser Technologie sind auch Multi-Touch-Eingaben und Gestenerkennung möglich.

Surface acoustic wave system:  Diese sehr teure Technologie misst die akustische Welle, die durch Berührung oder Reibung des Bildschirms entsteht und errechnet so deren Position sehr genau. Auch Wischbewegungen stellen kein Problem dar. Ein großer Vorteil dieser Technik ist das Fehlen von Abdunklungseffekten, sowie die Unempfindlichkeit gegen Staub und Spritzwasser. Dies macht Touchscreens dieses Types ideal für die Anwendung bei interaktiver Außenwerbung oder Public Information Displays.

Robustheit als “must-have”

Da Touchscreens in der Industrie besonderen Belastungen ausgesetzt sein können, erfüllen derartige Geräte meist sogenannte International Protection klassifizierte Schutzstandards. Insbesondere Schutz nach IP55-Zertifizierung ist hier sinnvoll. Diese Schutzart garantiert Schutz vor Staub, Spritzwasser und eine gewisse Unempfindlichkeit gegen Stöße. Gleiche Anforderungen stellt der Betrieb als Public Information Display (PID). Hierzu zählen beispielsweise digitale Werbeanzeigen in Bussen und Bahnen, Berührungsempfindliche Infoterminals und Selbstbedienungsschalter wie Geldautomaten oder Kontoauszugsdrucker in Bankfilialen. Für diese Geräte ist der Schutz vor Vandalismus, also mechanischer Beschädigung, besonders wichtig.

Und die Zukunft? Transparente, bieg- und faltbare Touch-Displays und ePaper kurz vor Marktreife

samsung-bendable-foldable-display-copy

Was noch nach Science Fiction klingt, wird allem Anschein nach in nächster Zukunft auf dem Massenmarkt verfügbar werden. Durch das erfolgreiche Fertigen erster Prototypen mit OLED-Technologie eröffnen sich ganz neue Anwendungsfelder. Beispielsweise existieren bereits erste funktionsfähige Konzepte für bieg- und faltbare Displays und ganze Smartphones. Auch erste transparente Touch-Displays sind aktuell bereits in sehr kleinen Serien (und zu sehr hohen Preisen) auf dem Markt erhältlich. Eine weitere spannende Neuentwicklung ist das sogenannte ePaper, also „elektronisches“ Papier. Dieses besteht aus einer sehr dünnen, mit OLEDs bedruckten Kunststoffschicht, welche sich in Zeitungen, Bücher oder Magazine einarbeiten lässt und so die Grenzen zwischen „analoger“ Print- und digitaler Medienwelt aufhebt. Ein Anbieter dieser wegweisenden Technologie ist etwa der deutsche Netzwerkspezialist Lancom.

3D-Druck: Innovative Technologie jetzt auch für Heimanwender

Von | 20. Dezember 2015

Sie sind inzwischen auch für Heimanwender verfügbar, doch setzt sich kaum ein Privatmann ernsthaft mit diesem Thema auseinander: 3D-Drucker. Wir liefern Ihnen im folgenden Artikel einen Überblick über die unterschiedlichen Verfahrenstechniken, deren Vor- und Nachteile sowie den Arbeitsablauf und den Nutzen dieser spannenden, neuen Technologie.

Die Verfahrenstechniken: Von Metall bis Kollagen kann alles verarbeitet werden

Zuerst widmen wir uns den in der Industrie gängigsten Verfahren im 3D-Druck: dem Verarbeiten von Metallen. Hier gilt es besonders zwei unterschiedliche Techniken zu nennen:
Selektives Laserschmelzen: Hierbei wird der Werkstoff in Pulverform in einer dünnen Schicht auf eine Grundplatte aufgebracht. Mit einem Laser wird das Pulver an den vom 3D-Modell benötigten Stellen geschmolzen. Nach dem Erstarren entsteht so eine feste, ca. 15-150 µm dünne Materialschicht. Nun wird die Grundplatte um eine Schichtdicke abgesenkt und erneut Pulver aufgetragen – der Vorgang wiederholt sich. Zum Schluss wird das fertige Bauteil ggf. bearbeitet, von überschüssigem Pulver befreit und verwendet.
Das Elektronenstrahlschmelzen funktioniert auf gleiche Weise, allerdings wird hier statt eines Laser ein  Elektronenstrahl zum schmelzen des pulverisierten Werkstoffes verwendet.

Nicht nur auf die Verarbeitung von Metallen beschränkt sich das selektive Lasersintern. Mit dieser Technik können sowohl Keramiken, als auch Polymere verarbeitet werden, was das Lasersintern zum „Allrounder“ unter den 3D-Druckverfahren macht.

Noch weiter in das Verarbeiten von Kunststoffen begeben wir uns mit der Stereolithografie. Bei diesem sehr teuren Fertigungsverfahren werden flüssige Kunstharze verarbeitet. Aus einem Bad des flüssigen Werkstoffes (Acryl-, Epoxid- oder Vinylesterharz) wird mit einem Laser in dünnen Schichten das Objekt geformt. Hierbei belichtet der Laser immer den Werkstoff an der Oberfläche, welcher dann aushärtet und durch eine Plattform aus dem Bad gehoben wird.

Für Heimanwender und Profis im Design oder der Prototypenentwicklung sind insbesondere die kostengünstigen 3D-Drucker welche mit Kunststoff-Filamenten arbeiten interessant. Hier unterscheiden wir das Polyjet-Modelling und das Fused Deposition Modelling als unterschiedliche Techniken.

Das Polyjet oder Multi-Jet Modelling funktioniert ähnlich wie ein gewöhnlicher Tintenstrahldrucker und verwendet als Ausgangsmaterial Hartwachse oder Thermoplaste. Diese werden verflüssigt und unmittelbar nach dem „Drucken“ der Schicht mit UV-Licht ausgehärtet.
Beim Fused Deposition Modeling werden ähnliche Kunststoffe verwendet – diese härten allerdings durch Abkühlen aus.

Zuletzt ist uns das besonders aufwändige Bioprinting eine Erwähnung wert. Hierbei wird organisches Material, abbaubare Kunststoffe oder Kollagen, verarbeitet, um Implantate oder (in Zukunft) ganze Organe mit dem 3D-Drucker herzustellen.

pj1200-jewelers-1a

3D-Druck ist in vielen Bereichen Anwendbar

Wichtigste, und vielleicht augenscheinlichstes, Anwendungsgebiet für den 3D-Druck ist die Prototypenentwicklung. Hier spart das Drucken der Teile, Baugruppen oder ganzer Demonstratoren nicht nur Zeit, sondern vereinfacht auch den Weg vom digitalen Entwurf zum anschaulichen Modell. Insbesondere im Maschinenbau, dem Bauwesen, der Automobilindustrie und der Architektur findet der 3D-Druck so großen Anklang. Doch auch in anderen Branchen entwickelt sich der 3D-Druck zum Alleskönner. In der bildenden Kunst, dem Design und der Mode öffnet diese Technik neue Wege; in der Luft- und Raumfahrttechnik, der Medizin- und Zahntechnik und der Verpackungsindustrie stößt der 3D-Druck nahezu eine Revolution an – früher aufwändig produzierte Einzelstücke können nun „vom Band“ hergestellt werden, was insbesondere die Produktionskosten enorm drückt. So setzt das private Raumfahrtunternehmen SpaceX beispielsweise bei der Produktion der Schubdüsen ihres Raumschiffes  Dragon V2 zu 100 Prozent auf das Lasersintern.

So funktioniert der 3D-Druck

Doch wie wird aus einem digitalen Entwurf nun ein echtes 3D-Modell? Generell läuft die Erstellung eines fertigen 3D-Druckes mit allen Verfahren quasi gleich ab.
Zuerst wird mit Hilfe von 3D-Modellierungsprogrammen, wie beispielsweise AutoCAD, ein CAD-3D-Muster erstellt. Ist dieses virtuelle Modell fertig, exportiert man es in ein für den 3D-Drucker verständliches Format. Hierbei zerlegt die Software des Druckers den digitalen Entwurf in sehr dünne Schichten, welche übereinander gelegt fertige Form ergeben. Je nach Auflösung und Qualitätseinstellung werden hier Schichtdicken von wenigen tausendstel Millimetern erreicht. Im nächsten Schritt beginnt der 3D-Drucker mit dem Drucken des Modells – Schicht für Schicht. Dies nimmt, je nach Komplexität und gewählter Auflösung, bis zu 6 Stunden in Anspruch. Doch ist das Modell nach diesem Arbeitsschritt praktisch fertig und muss nach, je nach verwendeter Technik benötigter Zeit zum Aushärten, gegebenenfalls nur noch von Druckrückständen befreit werden.

cubelifestyle_00032w_hand

Auch für Heimanwender spannend

Aufgrund des inzwischen vergleichsweise niedrigen Anschaffungspreises werden 3D-Drucker auch für den Anwender im heimischen Hobbykeller zunehmend interessant. Günstige Einstiegsmodelle der Firmen iRapid, Formlabs, Conrad oder Makerbot sind bereits ab ca. 600 € zu haben. Allerdings sind die nicht unerheblichen Materialkosten zu bedenken. Um einfacher und schneller an geeignete 3D-Modelle zu kommen, empfiehlt sich außerdem der Kauf eine 3D-Scanners. Hier sind günstige Ausführungen bereits ab 250 € verfügbar, doch lässt sich hier viel improvisieren. Mit geeigneter Software ist es beispielsweise möglich, eine einfache Webcam als 3D-Scanner zu nutzen oder 3D-Modelle aus unterschiedlichen Digitalfotos errechnen zu lassen.
Allerdings gilt es auch bei 3D-Drucken, geltendes Recht zu beachten. Insbesondere das Urheberrecht und den Patentschutz gilt es einzuhalten. Dies stößt uns direkt auf eines der großen Probleme des 3D-Druckes und die Frage, wie das Copyright in Zeiten von digitaler Verbreitung der Entwürfe/Modelle und deren Reproduktion gewahrt werden kann. Hier muss gegebenenfalls der Gesetzgeber an einer Lösung arbeiten.
Bevor Sie sich jetzt einen 3D-Drucker anschaffen, sollten Sie unbedingt folgende Fragen beantworten können: Was will ich mit dem Drucker herstellen? Was sind die Anforderungen und das Material? Welcher Detailgrad ist für mich nötig? Bewege ich mich rechtlich auf der sicheren Seite?
Falls Sie sich für den Kauf eines 3D-Druckers entscheiden gilt folgendes Credo: Ausprobieren, nicht blind kaufen! Die schiere Anzahl an unterschiedlichen Modellen erfordert viele Tests auf Tauglichkeit von Seiten des Users um optimale Ergebnisse zu erhalten.

Halten Sie sich an diese Richtlinien, steht Ihnen bei der Nutzung des 3D-Druckers nichts mehr im Wege. Viel Spaß beim Ausprobieren!

 

3D Systems CubePro Trio - 3D-Drucker - FDM - max. Baugröße 270,4 x 200,4 x 230 mm - Schicht: 70 µm - USB, Wi-Fi (401735)
3D Systems CubePro Trio (401735)
ArtNr: 2102568
  • 3D-Drucker
  • FDM
  • max. Baugröße 270,4 x 200,4 x 230 mm
  • Schicht: 70 µm
  • USB, Wi-Fi

Sony kündigt neue Features für PlayStation 4 an

Von | 18. Dezember 2015

PlayStation 4 bricht Rekorde

Unter den Next-Gen-Konsolen ist es eindeutig die PlayStation 4, die den Konsolenmarkt dominiert. Nach eigenen Angaben wurden seit Verkaufsstart vor zwei Jahren (am 29.11.13 in Europa) mehr als 30 Millionen PlayStation 4-Geräte verkauft. Damit erreicht Sony in Kontinentaleuropa mit einem Marktanteil von 90% eindeutige Vormachtstellung. Allein im November habe Sony – laut offiziell nicht bestätigten Insiderinformationen – eine Million Endgeräte verkauft. Diese enorme Zahl ist auf den Beginn der Weihnachtssaison und den Black Friday zurückzuführen, an dem Kunden vor allem in den USA mit zahlreichen Sonderangeboten gelockt werden. Der Konkurrent Microsoft hält sich mit der Veröffentlichung von Verkaufszahlen der Xbox One seit 2014 zurück, daher kann damit nicht verglichen werden.

Die aktuelle Revision der PlayStation 4, die seit Juni 2015 auf dem Markt ist, bietet dem Kunden im Vergleich zum Vorgängermodell doppelt so viel Speicher (1 Terrabyte) und hat einen um acht Prozent verringerten Energieverbrauch. Optisch unterscheidet sich die neue Variante nur geringfügig von der alten, sie wird in Mattschwarz oder in Weiß angeboten. Für knapp 399€ ist die PlayStation der CUH-1200-Serie auf dem Markt erhältlich. Sony‘s PlayStation 4 punktet vor allem durch Features wie Zugriff auf Streaming-Services; der Möglichkeit, 3D-Blu-Rays abzuspielen sowie mit einer umfangreichen Spielebibliothek. Außerdem können ganz einfach Gameplay-Videos auf YouTube hochgeladen werden.

white-playstation-4

Siebter Kern für Spieleentwickler freigegeben

„Added FMOD_THREAD_CORE6 to allow access to the newly unlocked 7th core.”

Diese Zeile in den aktuellen Patchnotes löste weitreichende Spekulationen aus: Die x86 basierte CPU von AMD, die in der aktuellen Konsole von Sony verbaut ist, bot bisher sechs der acht Kerne zur freien Verfügung für Spieleentwickler. Die beiden anderen waren für das Betriebssystem und parallel laufende Hintergrundprozesse reserviert. Nun könnte also der siebte Kern für Spieleentwickler freigegeben worden sein. Durch den dadurch entstehenden Leistungsschub können Spiele zukünftig noch schneller und schöner werden. Microsoft hatte mit der Xbox One diesen Schritt zu mehr Rechenleistung bereits im Januar 2015 gewagt. Ob die PlayStation 4 dabei tatsächlich nachzieht, wurde von Sony bisher noch nicht offiziell bestätigt. Falls dies aber der Fall ist, dürfen sich die Nutzer darauf freuen, dass die Entwickler zukünftig noch mehr Raum für überzeugende Grafik- und Geschwindigkeitsverbesserungen haben und so das Potential der Konsole optimal ausgenutzt werden kann.

PS 4-Inhalte auf dem PC streamen?

Was bei der Xbox One seit der Einführung von Windows 10 bereits möglich ist, soll nun in naher Zukunft auch bei der PlayStation 4 funktionieren: Nachdem ein privater Entwickler für 10 Dollar eine App angeboten hatte, mit der das Streaming von der Konsole auf den PC möglich sein soll, ließ Konzernchef Shuhei Yoshida bei Twitter verlauten, dass Sony ebenfalls an einer solchen App für PC und Mac arbeite. Bisher bot die PS 4 nur die Möglichkeit, auf die PlayStation Vita und auf einige Z3-Smartphones und Tablets zu streamen. Über WLAN können dabei die Bildschirminhalte auf dem entsprechenden Gerät angezeigt werden.

Ein solches Streaming auf dem PC kann vor allem dann praktisch sein, wenn der Familien-TV im Wohnzimmer durch den Partner oder die Kinder belegt ist – dann kann einfach auf den Rechner im Arbeitszimmer gestreamt und ohne Probleme gezockt werden.

Die alten Klassiker auf der neuen Konsole: Der PS2-Emulator

Eine weitere aktuelle Meldung von Sony lässt Zockerherzen höher schlagen: Ein Sprecher bestätigte, dass Sony an einer Emulationssoftware für PlayStation 2-Spiele arbeite. Dadurch könnten bald Klassiker wie Metal Gear Solid 3 oder Final Fantasy X auf der PlayStation 4 gespielt werden. Eine spezielle Software sorgt dafür, dass die alten Spiele auch auf der aktuellen Konsole von Sony gezockt werden können. Der Emulator könnte – wie bei der Xbox One – einfach als Update aufgespielt werden. Um die Spiele auch ohne Probleme auf den neuen Geräten zocken zu können, werden die Klassiker zusätzlich etwas optimiert: Die Auflösung soll auf 1292×896 Pixel (60 fps) hochskaliert werden, damit die Spiele auch neue Full-HD-Bildschirme ausfüllen. Außerdem sorgen die PS 4-Features dafür, dass die Kanten für eine bessere Grafik etwas geglättet werden.

ffx2

Final Fantasy X: Bald wieder in den Zockerregalen zu finden?

Wie genau der Emulator funktioniert oder wann er erscheinen soll, ist noch unklar, aber es wird spekuliert, dass Sony genaueres auf der „PlayStation Experience 2015“ am 5. und 6. Dezember bekannt geben könnten. Dort werden hoffentlich auch aktuelle Fragen geklärt wie: Wie kommt man an die Spiele? Kann man sie im PlayStation Store erwerben und herunterladen kann oder ist es auch möglich, die bereits gekauften alten Spiele-CDs zu installieren? Außerdem ist auch noch nicht klar, ob es bei allen Spielen funktioniert, sie auf dem Emulator abzuspielen, oder ob es nur eine bestimmte Auswahl geben wird. Eingefleischte Zocker hoffen zumindest darauf, Klassiker wie God of War wieder aufleben zu lassen. Die Abwärtskompatibilität ist erstmal nur für PS 2-Spiele gedacht, eine Abwärtskompatibilität zu PlayStation 3-Spielen sei wohl bisher nicht geplant.

Das neue OS X 10.11.2: El Capitan

Von | 17. Dezember 2015

Wer einen iMac von Apple nutzt, hat seit ein paar Monaten die Möglichkeit, sein Betriebssystem kostenlos auf die neueste Version OS X 10.11 (El Capitan) upzugraden. Im Gegensatz zum Vorgänger Yosemite, bei dem das Systemdesign komplett überarbeitet wurde, bringt El Capitan keine großflächigen Neuerungen mit sich, sondern konzentriert sich darauf, die bestehenden Funktionen und die Performance zu verbessern. Wie der Name schon ausdrückt – El Capitan ist ein Fels innerhalb des Yosemite-Nationalparks – ist OS X 10.11 nicht als Nachfolger, sondern als Weiterentwicklung von Yosemite zu sehen. Es liefert keine innovativen Features, sondern kleine, aber effektive Verbesserungen an vielen Stellen. Voraussetzung für die Installation des Updates sind neben 8,8 GB freiem Speicher auf der Festplatte auch mindestens OS X 10.6.8 (alle Mac ab 2008). Seit dem 09.12 steht die aktuelle Version 10.11.2 im Mac App Store zu Verfügung. Mit dieser Aktualisierung wurden kleinere Fehler, vor allem bei der Funk- und USB-Verbindung, behoben und das System stabiler und zuverlässiger gemacht. Mit El Capitan nähert sich OS X durch Funktionen, wie intuitiven Wischgesten, an das iOS Betriebssystem für Mobilgeräte an.

10_11_screen

Verbesserte Suchmaschine mit intelligenter Anfragenverarbeitung

Die systemweite Suchmaschine Spotlight kann nun neben Schlagworten auch mit Suchanfangen mit komplizierteren „natürlichen“ Satzstrukturen umgehen. Damit kann zum Beispiel nach „Bilder aus dem Kreta-Urlaub im Herbst 2012“ oder „Word-Dokumente die ich letzte Woche gemacht habe“ gesucht werden. Außerdem können Informationen aus dem Internet abgefragt werden: Spotlight liefert Ergebnisse zu Wetter, Sport oder Aktienkursen sowie zu Webvideos.
Auch die Möglichkeiten für effektives Multitasking wurden erweitert: Apple führt mit El Capitan einen Split-View-Modus ein, bei dem zwei Apps gleichzeitig im Vollbildmodus nebeneinander angezeigt werden. Dadurch kann effektiver mit zwei Programmen gearbeitet werden, ohne dass man von anderen Anzeigen abgelenkt wird oder die Größe der Fenster manuell anpassen muss.

Für eine strukturierte Ansicht wurde auch Mission Control verbessert: Wenn Mission Control mit einer Streichgeste aktiviert wird, werden alle geöffneten Fenster in Miniaturansicht angezeigt, ohne dass sie sich überlappen. So findet man das gesuchte Fenster auch bei vielen offenen Programmen schneller wieder. Für noch mehr Übersicht können geöffnete Programme auf einen weiteren virtuellen Schreibtisch übertragen werden.

el-capitan-split-view-hero

Durch neue Funktionen entwickelt sich die Notizen-App hin zu einer ganzheitlichen Anwendung zur Organisation. Es können zum Beispiel To-Do-Listen erstellt werden, die via iCloud auf all Ihren Appleprodukten verfügbar gemacht werden. Per Drag & Drop können nun andere Dateitypen wie PDFs, Webseiten, Standorte, Kontakte und Bilder zu Notizen hinzugefügt werden. Um die Übersicht über die Anhänge zu behalten, können diese mit der neuen Anhangsübersicht betrachtet werden, ohne dass jede Notiz einzeln aufgerufen werden muss.

Besser online unterwegs durch verbesserten Browser und Mailprogramm

Auch die Organisation von E-Mails wurde durch El Capitan vereinfacht: Neben dem neuen Vollbild-Support steht eine neue Tab-Ansicht zur Verfügung, mit der sich mehrere Mails gleichzeitig bearbeiten lassen. Außerdem kann man seine Mails nun ganz einfach durch iOS-inspirierte Wischgesten sortieren bzw. löschen. Für einen intuitiven Workflow, der mit wenigen Klicks auskommt, kooperiert das Mailprogramm nun besser mit dem Adressbuch und dem Kalender. Wichtige Informationen wie Terminangaben in E-Mails werden erkannt, herausgefiltert und daraufhin Termine für den Kalender vorgeschlagen.

apple-mail-app-rcm992x0

Mit Safari lassen sich ab sofort Ihre Lieblingswebseiten ganz einfach anpinnen, um immer schnell darauf zugreifen zu können. Die angepinnten Seiten werden automatisch im Hintergrund aktualisiert. Eine weitere neue Funktion ist, dass man Webvideos via AirPlay direkt auf einem AppleTV abspielen kann. Außerdem lassen sich mit einem Knopfdruck alle Tabs auf einmal stumm stellen, so kann man z.B. bei lästiger Werbung schnell reagieren, ohne erst jeden Tab durchsuchen zu müssen.

Bessere Performance durch neue Grafikunterstützung

Die Performance des Mac wird durch eine neue Grafikengine namens „Metal“ verbessert. Diese sorgt dafür, dass alle Programme schneller und flüssiger laufen, indem sie besseren Zugriff auf den Grafikprozessor erhalten. Laut Apple sollen damit Apps bis zu 40% schneller starten, Webseiten und Dokumente schneller geladen werden und ein doppelt so schneller Wechsel zwischen Anwendungen möglich sein. Auch Spiele profitieren davon, denn mehr Geschwindigkeit sorgt für bessere und flüssigere Grafik. Ein weiterer Vorteil von Metal ist, dass Programmierer und Spieleentwickler unmittelbarer auf Hardware-Ressourcen zugreifen können.

big-cursor

Neben weiteren kleinen Änderungen kann jetzt mit der Karten-App auch auf den öffentlichen Nahverkehr zugegriffen und diese Daten dann auf das iPhone übertragen werden. Außerdem wird der Cursor größer, wenn man den Finger auf dem Trackpad hin und her bewegt oder die Maus schüttelt, sodass man ihn auf dem Bildschirm leichter wieder finden kann. Das Foto-Programm erlaubt ab sofort die Benutzung von Bearbeitungstools von Drittanbietern für die eigenen Fotos.

Lohnenswertes Update für benutzerfreundliche Optimierungen

Auch wenn große Innovationen fehlen, bringt das Update doch einige Vorteile mit sich, die nicht von der Hand zu weisen sind. Das Betriebssystem wird insgesamt stimmiger und runder durch die Erweiterung El Capitan, so arbeitet Ihr iMac dank verbesserter Grafikengine schneller und zuverlässiger. Durch die Einführung der Gestensteuerung nähert sich OS X an iOS an und wird so noch intuitiver und benutzerfreundlicher. Durch die Optimierung von Mail und Notizen-Programm unterstützt der Mac noch besser beim effektiven und produktiven Arbeiten im täglichen Gebrauch.

Windows 10 Professional: durchdachte Grundlage für Unternehmen

Von | 14. Dezember 2015

Seit dem Release im Juni 2015 wird Windows 10 bereits auf über 110 Millionen Endgeräten genutzt, darunter auch 12 Millionen Geräte in Unternehmen, Zahl steigend. Die vielen Möglichkeiten und Features des neuen Betriebssystems überzeugen immer mehr Arbeitgeber, ihre Systeme auf das neue Windows 10 umzustellen. Bisher wurde in kleinen und mittleren Unternehmen hauptsächlich Windows 7 genutzt, da aber bereits 2020 der technische Support für das sechs Jahre alte Betriebssystem ausläuft, sollte darüber nachgedacht werden, auf eine aktuelle Variante umzusteigen. Dafür bietet Windows 10 genau die richtigen Voraussetzungen für höhere Produktivität und verbesserte Sicherheit. Durch viele Ähnlichkeiten zu den vorherigen Betriebssystemen und die Tatsache, dass sich Mitarbeiter zu Hause das neue Windows 10 kostenlos herunterladen können, verkürzt sich die Einarbeitungszeit deutlich.

hero_carousel_2in1_mini_start_CortanaMarket_1x

Das neue System kann auf den bestehenden Geräten, die bereits mit Windows 7 oder 8.1 betrieben wurden, ohne komplette Neuinstallation auf Windows 10 aktualisiert werden. Durch das neue November-Update Threshold 2 ist es ebenfalls möglich, mit einem gültigen Windows 7 oder 8.1-Key eine saubere Neuinstallation mit Windows 10 auf einem PC durchführen, ohne zuvor die alte Version aufspielen zu müssen. Die alten Geräte können also auch mit der neuen Windows-Version weiter verwendet werden, es ist nicht zwangsläufig nötig, sich kostenintensive neue Hardware anzuschaffen.

Wenn man sich trotzdem dazu entscheidet, Windows 10 mit aktuellen Endgeräten zu nutzen, können die neuen Features für Touch-Eingabe oder Nutzung eines Eingabestifts effektiver eingesetzt werden. Mit Windows 10 werden fast alle Endgeräte wie Desktop PCs, Tablets, Smartphones, Notebooks und sogar 2in1-Systeme unterstützt. Es gibt keine separate mobile Version mehr, sondern eine einheitliche Plattform mit den gleichen Sicherheitsstandards auf allen Geräten. Das erleichtert den täglichen Umgang auch mit mehreren Geräten, Administratoren profitieren durch das Enterprise Mobility Management und die nahezu identischen Funktionen für die Verwaltung ebenfalls.

Windows 10

Ständige Updates statt statischer Windows-Version

Windows 10 wird von monatlichen Updates (am sogenannten Patchday) unterstützt, die durch Peer-to-Peer-Downloads erfolgen. Diese übertragen nicht nur die neuesten Sicherheitsstandards auf Ihr System, sondern sind auch mit den neuesten Innovationen von Microsoft versehen. Es gibt also keine finale Windows-Version mehr, sondern dieses „Windows as a Service“ genannte System wird permanent durch Updates verändert und optimiert. Mit den plattformübergreifenden Updates, die vom Smartphone bis zum Desktop-PC reichen, wird eine bessere Stabilität und Kompatibilität des Betriebssystems garantiert sowie neue Funktionen auf den Rechner übertragen. Durch eine spezielle Verschlüsselung garantiert Windows, dass dabei nur originale, virenfreie Daten auf den PC gelangen.

Ein wichtiger Vorteil bei Windows 10 Professional und Enterprise ist, dass der IT-Administrator durch den kostenlosen Service „Windows Update for Business“ sehr genau steuern kann, wie die Verteilung der Updates im Firmennetzwerk abläuft: Er kann entscheiden, ob und wann die neuen Sicherheits- und Funktionsupdates auf welchen Rechnern des Netzwerks installiert werden sollen, damit immer alle auf dem neuesten Stand sind. Er kann dafür Gerätegruppen erstellen oder eine stufenweise Verteilung nutzen. Außerdem gibt es eine wählbare Option namens „Current Branch for Business“ -wenn man sich für diese Option entscheidet, werden nur die Sicherheitsupdates installiert und die neuen Funktionen erst dann für das Unternehmen zur Verfügung gestellt, wenn sich bei der Nutzung durch den Endkunden keine Probleme mehr ergeben. Alternativ kann man auch erfolgreiche interne Tests abwarten, bevor man die neuen Features herunterlädt.

Microsoft-Display-Dock-block1-jpg

Windows Continuum – Produktives Arbeiten durch unterstütztes Multitasking

Mit Windows Continuum eröffnen sich ganz neue Möglichkeiten der Endgerätnutzung für effektives Arbeiten. Das Betriebssystem erkennt nicht nur, mit welchen Eingabegeräten gerade gearbeitet wird, es passt sich dank des Continuum-Features automatisch entsprechend an. So hat man, egal ob man mit Touch-Eingabe oder mit Maus und Tastatur arbeiten, immer eine entsprechende Nutzeroberfläche, die das Arbeiten erleichtert. Außerdem können damit Geräte drahtlos oder mit einem Display Dock gekoppelt werden: Wenn man das Smartphone auf einer Dienstreise dabei hat, kann man es beispielsweise mit einem Desktop, Tastatur und Maus verbinden und damit wie am Arbeitsplatz im Büro arbeiten. Man hat Zugriff auf seine Daten und kann das Mailprogramm oder die Office-Programme über den großen Bildschirm entsprechend bedienen. Die Apps sind als so genannte Universal-Apps programmiert, die sowohl auf einem Smartphone als auch auf einem PC gleichermaßen funktionieren, ohne dass sich Darstellungsprobleme ergeben. So dient das Smartphone als Mini-PC, mit dem man überall seine Daten griffbereit hat und mit zusätzlichen Bildschirmen sowie Eingabegeräten effektiv arbeiten kann. Eine weitere Besonderheit dabei ist, dass der Smartphone-Bildschirm dabei unabhängig vom großen Bildschirm arbeiten kann. Weiterer Vorteil für mobile Geräte wie Tablets und Smartphones ist, dass seit dem neuesten Update Apps auch auf der SD-Karte installiert werden können, dadurch wird weniger interner Speicherplatz verbraucht.

Windows 10 bietet neben Windows Continuum auch weitere Funktionen an, die das Arbeiten deutlich erleichtern und die Produktivität verbessern können: Es liefert eine integrierte virtuelle Desktop-Funktion und erlaubt außerdem das Anzeigen von bis zu vier Apps gleichzeitig. Damit wird das Multitasking am Arbeitsplatz zum Kinderspiel und effektivem Arbeiten steht nichts im Wege.

Praktische Funktionen und Sicherheitsoptimierung

Windows 10 liefert viele praktische Funktionen, die den Administratoren in professionellen Netzwerken das Leben erleichtern. Systeme können beispielsweise in eine Active-Directory-Domäne aufgenommen werden. Auch eigene Geräte können damit für die Arbeit im Unternehmen optimiert werden, denn die cloudbasierte Identitätsverwaltung Azure AD kann auf allen Windows 10-Geräten verfügbar gemacht werden. Anwender können sich an allen Endgeräten anmelden und ihre Daten dabei mitnehmen.

Mit dem neuen Windows Store for Business können zertifizierte Apps und spezielle Business-Anwendungen ganz einfach erworben, verwaltet und verteilt werden. Der Store erleichtert den Administratoren die Zuweisung und Verteilung der Apps an die verschiedenen Benutzer im Netzwerk. Die Apps können für einzelne Nutzer oder das ganze Unternehmen gekauft werden. Nützlich ist, dass die Installation neuer Funktionen auf einzelnen Rechnern erlaubt oder gesperrt werden kann. Selbst entwickelte Unternehmensanwendungen lassen sich besser integrieren als bei früheren oder anderen Systemen.

Windows-10-Technology

Windows 10 bietet viele verschiedene Möglichkeiten, seine Daten vor Zugriffen oder Viren zu sichern. Mit einer Mobile Device Management-Lösung (MDM-Lösung) können Administratoren alle Mobilgeräte mithilfe einer Software verwalten. Durch Enterprise Data Protection (EDP) lassen sich auf einem Gerät die privaten von den geschäftlichen Daten trennen und verhindern, dass unsichere Apps auf dem Endgerät installiert werden. Außerdem bietet Windows 10 eine Verschlüsselung auf der Hardware-Ebene an (TPM-Verschlüsselung). Das biometrische Authentifizierungssystem Windows Hello sorgt für zusätzlichen Schutz. Man kann sich statt mit einem Passwort per Gesichtserkennung oder Fingerabdruck an Windows-10-Geräten anmelden.

Alle größeren Unternehmen, denen die Windows 10 Professional-Version nicht genug Möglichkeiten bietet oder besonders sicherheitskritische Systeme können mit einer Volumenlizenz Windows 10 Enterprise erwerben, z.B. auch eine LTSB-Version (Long Term Servicing Branch), eine abgespeckte Version ohne zusätzliche Features, aber mit weiteren Sicherheitsaspekten. Dadurch hat der Administrator dabei die volle Kontrolle über ein extrem stabiles System.

Würdiger Nachfolger mit neuen Funktionen

Durch die neuen Features erfüllt Windows 10 alle Anforderungen kleiner und mittelständischer Unternehmen an ihr Betriebssystem. Vor allem durch die Funktionen zur Steigerung der Produktivität ist der Umstieg eine Überlegung wert. Durch die Updates unterliegt Windows einem permanenten Verbesserungsprozess, von dem der Nutzer profitiert. Außerdem werden die IT-Abteilungen flexibler, denn die einheitliche Nutzeroberfläche und verbesserte Sicherheit erleichtern den Administratoren ihre Arbeit. Mit der Continuum-Funktion wird effektives Arbeiten und Multitasking außerhalb des Büros, zum Beispiel auf Geschäftsreisen, zum Kinderspiel. Auch sprachgesteuerte Funktionen wie die lernfähige Assistentin Cortana unterstützen künftig das Arbeiten mit Endgeräten. All das macht Windows 10 zu einem würdigen Nachfolger von Windows 7.

 

 

 

 

 

 

 

 

PC-Gehäuse – Eine Übersicht

Von | 12. Dezember 2015

Ein PC-Gehäuse besteht nicht nur aus vier (Seiten-)Wänden und einem Dach. Es ist ein umfassendes Gebilde, welches den Computer zusammenhält und ihm seine Form gibt. Durch das Gehäuse wird das gesamte elektronische Innenleben des PCs vor externen Einflüssen wie Flüssigkeiten, Staub, Dreck und ähnlichem geschützt. Innerhalb des PC-Gehäuses finden sich verschiedene Einlassungen, Slots und Öffnungen, die vorgeben, wo die einzelnen Rechnerkomponenten befestigt werden können. In manchen Gehäusen sind bereits ein Netzteil und ein oder mehrere Lüfter eingebaut. Das Netzteil ist oben oder unten eingesetzt, in moderne Tower werden schon ab Werk auswechselbare Staubschutzfilter verbaut, um den Lüfter des Netzteils vor Schmutz zu schützen. In den gängigen Gehäusen werden oft Halterungen angeboten, in die man zusätzliche Filter oder Lüfter einbauen kann, denn je nach Leistung des PCs reicht der integrierte Netzteillüfter zur Kühlung nicht mehr aus und es müssen weitere Komponenten eingebaut werden. Gekühlt werden müssen alle Bauteile, die bei der Benutzung Hitze entwickeln: Laufwerke entwickeln Wärme durch die mechanischen Bauteile, aber auch die CPU (der Prozessor) oder Grafikkarten strahlen Hitze aus und sollten gekühlt werden. Dazu werden kleine Lüfter an den Wänden des Gehäuses platziert und die Hitze von den Radiatoren nach außen geleitet.

Worauf man beim Kauf eines Gehäuses ebenfalls achten sollte, sind die Schnittstellen auf der Vorderseite. Bei früheren Gehäusen fanden sich USB-Schnittstellen nur auf der Rückseite, da heutzutage aber so gut wie alles über USB funktioniert, finden sie sich immer mehr auch auf der Vorderseite des Gehäuses. Gleiches gilt für Speicherkartenlesegeräte, z.B. im SD-Format. An der breiten Rückwand werden Hauptplatine und Steckkarten (z.B. Grafikkarte und Soundkarte) in den entsprechenden Auslassungen befestigt. Wer eine Wasserkühlung für seinen Computer nutzen möchte, findet die entsprechende Zufuhr ebenfalls auf der Rückseite. Hochwertige Geräte haben oft eine Doppelwand, hinter der die Kabel zum Mainboard geführt werden. Dadurch ist das Innenleben übersichtlicher und Komponenten können schneller ausgetauscht werden. In den Gehäusen gibt es meistens mehrere Einschübe für optische Laufwerke und Festplatten und manche haben spezielle „Festplattenkäfige“, welche den Vorteil bieten, dass mehrere Festplatten auf einmal herausgenommen werden können, ohne sie einzeln ausbauen zu müssen. PC-Gehäuse werden in unterschiedlichen Größen und Bauformen angeboten, die aber nach bestimmten Formfaktoren genormt sind (weit verbreitet sind ATX und Mini-ITX). Die Bauformen werden in Big Tower, Midi-Tower und Desktop-PCs unterteilt.

Casemodding – PC-Gehäuse in chic

PC-Gehäuse können individuell modifiziert und nach eigenen Wünschen mit Hardware bestückt werden. Das eigenständige Modifizieren des Gehäuses wird als „Casemodding“ bezeichnet, dabei wird das Innenleben nach eigenen Vorstellungen ergänzt, verändert und angepasst. Das umfasst sowohl rein optische als auch leistungsorientierte Veränderungen. Dabei ist es wichtig, sich im Voraus darüber zu informieren, welches Gehäuse am besten für die gewünschten Änderungen geeignet ist, denn nicht jedes Gehäuse bietet die gleichen Änderungsmöglichkeiten. Meist steht beim Casemodding das Verbessern der Leistung, die Geräuschreduzierung oder die Optimierung der Lüftung (für eine bessere Betriebstemperatur) im Vordergrund. Die entsprechenden Gehäuse besitzen meist schon passende Halterungen für solche Änderungen, z.B. Einbaurahmen für zusätzliche Lüfter oder Festplatten. Es können aber auch spezifische Änderungen vorgenommen werden, zum Beispiel kann eine Lüfter-Steuerung eingebaut werden, mit der sich einzelne Lüfter im Gesamtkomplex ansprechen und regeln lassen. Optische Veränderungen sind zum Beispiel die Nutzung von LEDs und Plexiglas, um den PC zu einem echten Blickfang zu machen. Sogar komplett eigene Gehäuse in kreativen Designs können entworfen werden – dabei sind der Fantasie keine Grenzen gesetzt.

Midi-Tower – Der zeitlose Klassiker

Die meistgenutzte Bauform ist ohne Zweifel der Midi-Tower (auch ATX-Gehäuse genannt). Gehäuse dieser Bauform sind nicht zu groß und stellen doch ausreichend Platz für alle wichtigen Komponenten bereit. Integrierte freie Schächte für Laufwerke und sonstige Speichermedien bieten außerdem Raum für Zusatzkomponenten. Das passende Mainboard mit ATX-Formfaktor liefert ebenfalls ausreichend Steckplätze für Steckkarten. Midi-Tower bieten meist leichten Zugang zu den Schnittstellen an der Vorderseite. Da die einzelnen Elemente in diesem Gehäuse recht nah beieinander liegen, ist die Kühlung ein wichtiger Aspekt bei Midi-Towern. Sie haben oft durchdachte Belüftungs- und Kühlungslösungen, die dafür sorgen, dass ein effektiver Luftstrom entsteht, der über alle wichtigen Hardware-Elemente geleitet wird. Dadurch wird die Abwärme abtransportiert und frische, kühle Luft strömt ein. Bei der Wahl des Gehäuses ist zu beachten, ob schon Lüfter im Gehäuse vorinstalliert sind, oder es die Möglichkeit bietet, integrierte Halterungen für zusätzliche Lüfter zu nutzen. Das Netzteil ist bei den meisten Midi-Towern bereits integriert, bei manchen Modellen muss es separat angeschafft werden.

 

Big Tower – Der große Alleskönner

Generell gilt: Je größer das Gehäuse, desto mehr Möglichkeiten zur individuellen Gestaltung bietet es. Deswegen sind die Big Tower (oder Maxi-Tower) vor allem für das Casemodding sehr beliebt. Wer genügend Stauraum hat und bei der Auswahl des passenden Gehäuses nicht auf die Größe achten muss, kann sich guten Gewissens für diese Gehäusevariante entscheiden. Sie bieten mehr Platz als ein Standard-Midi-Tower und dementsprechend einige Vorteile: Die einzelnen Komponenten müssen nicht so eng aneinander verbaut werden, was für eine bessere Luftzirkulation sorgt. Dadurch können die Komponenten ohne lästige Lüftergeräusche kühl gehalten werden. Natürlich kann der interne Platz auch optimal ausgenutzt werden, indem weitere, extrem leistungsfähige Hardware verbaut wird. Dann wird zwar eine zusätzliche Kühlung notwendig, doch auch diese findet Platz in den Big Towern. Zusätzliche Kühlungsmechanismen, wie Lüfter oder eine Wasserkühlung, können eingebaut werden, um Hitzeprobleme zu vermeiden. Auch übertaktete Hardware kann dadurch effektiv kühl gehalten werden.

Solche Big Tower, wie zum Beispiel Modelle von Corsair, sind also vor allem für Bastler interessant – es können aber auch komplett ausgestattete Big Tower erworben werden. Damit kommt auch auf seine Kosten, wer nicht die nötige Geduld oder Zeit dafür hat, sich einen Tower individuell zusammen zu stellen.  Big Tower punkten vor allem durch die große Vielfalt an Anschluss- und Speicheroptionen und können im Büroalltag oder zu Hause genutzt werden.

big-tower

Desktop-PCs – Klein und kompakt

Desktop-PCs liegen flach auf dem Tisch und benötigen durch ihre kleine und schmale Bauweise wenig Platz. Ihre Größe sorgt dabei für Vor- und Nachteile: Ein Vorteil ist, dass sie kaum Platz benötigen und die Geräuschentwicklung sehr gering ist, da keine Lüfter verbaut sind. Andererseits ergibt sich genau daraus ein Problem, denn durch den internen Platzmangel muss über Kühlalternativen wie eine Passivkühlung nachgedacht werden, um ein Überhitzen zu verhindern. Damit die Hardware möglichst wenig Abwärme produziert, werden meist Mikro-ATX-Mainboards und nur die wichtigsten Hardware-Elemente eingesetzt. Desktop-Gehäuse werden oft für HTPC-Varianten (Home Theater Personal Computer) im Wohnzimmer genutzt und besitzen daher meist eine Fernbedienung mit Infrarot-Schnittstelle. Solche Mediencomputer funktionieren wie klassische PCs und können andere Mediengeräte wie DVD-Player, CD-Spieler und Videorekorder ersetzen und auf zusätzliche Software zugreifen. Solche Geräte im Desktop-Format sind vor allem für den Office- und Multimedia-Betrieb geeignet, für herausfordernde Aufgaben sind größere Gehäuse mit mehr Hardware-Optionen zu empfehlen.

 

Der Formfaktor von Gehäuse und Bauteilen

Neben den von außen recht einfach erkennbaren Größenunterschieden definiert sich ein Gehäuse auch über den Formfaktor: Diesen kann man von außen zwar erahnen, er ist aber vor allem für das Innenleben relevant. Der Formfaktor (einfacher gesagt: das Format) ist ein genormter gemeinsamer Nenner, auf den sich Hersteller bei verschiedenen Bauteilen geeinigt haben, damit diese besser zusammen passen und man sie leichter austauschen kann. Zu diesen Bauteilen zählen neben dem Gehäuse die Hauptplatine (Motherboard), das PC-Netzteil und optionale Komponenten wie Laufwerke. Der Formfaktor beschreibt nicht nur die Größe, sondern zusätzlich die genormten Befestigungsmöglichkeiten. Damit sind Anzahl und Position der Bohrlöcher am Bauteil und am Gehäuse für die Verankerung gemeint. Größere Gehäuse sind meist ebenfalls kompatibel mit kleineren Standards. Beim Motherboard legt der Formfaktor außerdem fest, wie die einzelnen Komponenten darauf angeordnet sind. Die wichtigsten und meistgenutzten Formfaktoren sind ATX und Mini-ITX.

Mikro-ITX

ATX

Der Formfaktor ATX (Advanced Technology Extended), wurde 1996 eingeführt und ist bis heute der gängigste Formfaktor bei PCs und Desktop-Computern. Mit einer Abmessung von 305x244mm ist das Motherboard recht groß, dafür bietet es ausreichend Platz für zusätzliche Komponenten, die E/A-Komponenten sind dabei auf der Hauptplatine fest integriert. Bei ATX ist ein weiterer Vorteil, dass das Netzteil intern über eine Spannungssteuerung koordiniert wird. Der Einschaltknopf ist an das Mainboard angeschlossen und nicht an das Netzteil an sich. Dadurch kann man den Rechner schnell und auf verschiedene Arten aus dem Stand-By rufen, zum Beispiel durch die Tastatur, oder durch Befehle über das Netzwerk. Ein Nachteil dabei ist, dass der Rechner im Stand-By-Modus immer noch Strom verbraucht.

Mini-ITX

Mini-ITX (Integrated Technology Extended) bezeichnet besonders kleine Hauptplatinen mit einer Abmessung von nur 170x170mm. Solche kleinen Mainboards haben weniger Features als die mit größeren Formfaktoren. Zu Markteinführung hatten die Mini-ITX-Motherboards noch einen fest verbauten VIA-Prozessor, welcher zwar passabel war, aber für manche Aufgaben, z.B. grafiklastige Anwendungen nicht ausreichend war. Heute lassen sich aber ohne Probleme Mehrkern-Prozessoren wie Intel i7 Core in solche Mainboards integrieren, welche hohe Leistung liefern. Da nicht jedes Mainboard in diesem Formfaktor einen zusätzlichen PCIe-Slot für eine Grafikkarte hat, sollte auf eine leistungsstarke Grafikeinheit geachtet werden. Durch diese Möglichkeiten kann man auf kleinstem Raum effektive und leistungsstarke Systeme mit hoher Arbeitsgeschwindigkeit entwerfen. Sie werden mehr und mehr in Multimedia-Komponenten wie Podcast-Empfängern eingesetzt. Neueste Varianten dieser kleinen Motherboards verfügen dabei bereits über HDMI 1.4- und USB 3.0-Schnittstellen, zum Beispiel die Gigabyte 7 Mini-ITX-Serie

Aufgrund der geringen Größe haben sie zwar weniger Rechenleistung als ihre größeren Verwandten, aber genau das machen sie sich zum Vorteil: Sie sind klein, produzieren weniger Abwärme sind durch den geringeren Energieverbrauch deutlich stromsparender. Damit kann ein System zusammengestellt werden, das bei minimalem Stromverbrauch maximale Leistung aufweist. Je nach gewünschtem Anwendungsgebiet sind Rechner im Mini-ITX-Formfaktor eine ausgezeichnete Alternative zu normalen PCs. Sie werden oft in so genannte „Thin Clients“ verbaut, also Computern, die nicht viel Rechenleistung benötigen, weil sie sich nur auf wenige bestimmte Aufgaben konzentrieren und der Rest vom entsprechenden Server erledigt wird. Vor allem da die Servertechnologien immer weiter voranschreiten, wird dieser Formfaktor immer bedeutender. Neben der Anwendung im Wohnzimmer in HTPCs werden sie dank ihrer hohen Leistung und der kleinen Größe auch in Computerterminals von Rechenzentren, Workstations in einem Netzwerk mit Datenservern oder einfach als pure Benutzerschnittstelle eingesetzt. Namhafte Hersteller sind z.B. Asus, Fujitsu, Gigabyte und Intel.

Ein noch kleinerer Formfaktor ist Nano-ITX, welcher mit einer Abmessung von nur 120x120mm kleiner als ein DIN A5-Blatt ist, also nur halb so groß wie DIN A4.  Mainboards dieser Größe werden zum Beispiel in Autocomputern verbaut, oder in Unterhaltungsgeräten wie Fernsehern, Festplattenrecordern oder in HTPCs. Sie werden vor allem dann  genutzt, wenn man viel Leistung auf wenig Platz braucht. Sie sind weniger für gängige Desktop-PCs geeignet, eher als individuelle Lösung.

 AMOS-2000 mit Nano-ITX board

 

Es ist also bei der Anschaffung eines neuen PC-Gehäuses wichtig, worauf der persönliche Schwerpunkt gelegt wird, denn abhängig davon kommen verschiedene Varianten infrage. Bei der Bauform spielt es vor allem eine Rolle, wie viel Platz das Gehäuse einnehmen darf. PCs für das Wohnzimmer sind meist kleiner und kompakter als Büroversionen. Je größer das PC-Gehäuse, desto mehr Möglichkeiten der Modifikation bietet es: Man kann starke Hardware mit kraftvoller Luft- und Flüssigkeitskühlung kombinieren, um maximale Leistung zu erreichen. Bei den kleineren, platzsparenden Formaten kann man schon heute mit Mini-ITX erstaunliche Arbeitsgeschwindigkeiten erreichen, was auch kleine PCs sehr leistungsstark macht.

Viele Gehäuse haben einen spezifischen Schwerpunkt, zum Beispiel optimale Geräuschdämmung durch integrierte Vibrationsdämpfung und schallabsorbierende Materialien – oder intelligente Designs für einen optimalen Luftströmungspfad und gute Kühlung. Wiederum andere konzentrieren sich auf Leistungsfähigkeit und Funktionalität – oder auf ein Erscheinungsbild, das sich entweder in das Umfeld einfügt oder als besonderes Highlight daraus hervorsticht.

Je nach persönlichen Vorlieben kann man sich seinen PC selbst zusammenstellen oder sich für ein bereits komplettes Modell entscheiden. Der Shop von Jacob Elektronik bietet neben vollständigen  PCs auch eine große Auswahl an Zusatzteile für das Umbauen solcher PC-Gehäuse, z.B. verschiedene Gehäuselüfter, Dämmsets usw.

 

PC Building 101 – Ihren PC zusammenbauen Teil 5: Windows installieren und Fazit

Von | 11. Dezember 2015

Nun also zu unserem fünften und letzten Teil der Serie: Die Installation des Betriebssystems und Inbetriebnahme des Computers. Prinzipiell kommt nun folgendes auf Sie zu:

  • Vorbereiten des Datenträgers, auf welchem das Betriebssystem installiert werden soll
  • Installation des Betriebssystems
  • Einrichtung eines Benutzerkontos
  • Falls nötig: Installation fehlender Treiber

Windows installieren leicht gemacht

Auf allen Systemen soll das aktuelle Windows 10 zum Einsatz kommen. Da der Installationsvorgang auf sämtlichen Systemen gleich abläuft, begnügen wir uns mit einer Anleitung, welche jedem der gezeigten Systeme anwendbar ist. Zusätzlich werden wir in naher Zukunft ein Tutorial zur Installation des OpenSource-Betriebssystems „Ubuntu“ in der aktuellen Revision zur Verfügung stellen.
Fangen wir also an!

Was Sie benötigen:

  • eine gültige Windows-Lizenz: sämtliche verfügbare Lizenzen finden Sie in unserem Online Shop

 

  • einen Windows-Datenträger: DVD-ROM oder einen bootfähigen USB-Speicher (wie sie einen USB-Stick als Installationsmedium verwenden können, erklären wir Ihnen hier.)
  • mitgelieferte Treiber-CDs Ihrer verbauten Komponenten oder Internetzugang

Nachdem Sie Ihren neuen PC mit dem Stromanschluss, Tastatur, Maus, Bildschirm und ggf. einem Netzwerk via LAN-Kabel verbunden haben, starten Sie diesen erstmals. Wurde alle Hardware korrekt verbaut, sollte ein Videosignal ausgegeben werden. Legen Sie nun die Windows-DVD ein oder stecken Sie Ihren vorbereiteten USB-Stick in einen passenden Slot. Nach einem Neustart des Systems sollte das Windows-Setup automatisch starten. Falls dem nicht so ist, wählen Sie die DVD oder den USB-Stick als Bootmedium aus. Nach einem Neustart startet nun auch in diesem Falle die Windows-Installation automatisch. Beachten Sie bitte, dass Sie ihr Gerät während der Windows-Installation nicht ausschalten oder vom Strom trennen sollten.

1

Als erstes erscheint der Installationsbildschirm. Hier wählen Sie die Installationssprache, sowie Uhrzeit- und Währungsformat und das Layout der Tastatur. Falls hier „Deutsch“ noch nicht ausgewählt sein sollte, erledigen Sie dies mit Hilfe des Drop-Down-Menüs. Klicken Sie nun auf „Weiter

2

Das nächste Fenster verschwindet nach einem Klick auf „Jetzt installieren

3

Im darauffolgenden Schritt werden Sie gebeten, Ihren Windows-Lizenzschlüssel einzugeben. Sie können die Eingabe auch überspringen, allerdings muss Windows dann im laufenden Betrieb aktiviert werden. Geben Sie also Ihren Key ein und klicken Sie auf „Weiter

4

Stimmen Sie nun den Lizenzbedingungen zu, indem Sie ein Häkchen vor der zugehörigen Option setzen. Klicken Sie auf „Weiter

5

Nun stellt Ihnen das Setup die Frage nach der Installationsart. Bei einer Neuinstallation, wie in unserem Fall, wählen Sie hier „Benutzerdefiniert

6

Im nun Angezeigten Fenster werden alle gefundenen Laufwerke aufgelistet. Wählen Sie hier den Datenträger, auf welchen Sie Windows installieren wollen. In unserem Fall handelt es sich hierbei immer um die verbaute SSD. Wählen Sie diese an und erstellen sie durch Klick auf „Neu“ einen neuen Festplattenbereich für die Windows-Installation. Klicken Sie auf „Weiter

7

Ab jetzt übernimmt Windows die Arbeit. Warten Sie, bis alle Dateien auf die Festplatte kopiert wurden. Dies kann durchaus einige Zeit in Anspruch nehmen. Daraufhin werden diverse Infotexte und Grafiken eingeblendet.

9

Eventuell fragt Sie das Setup (falls vorher nicht eingegeben) nochmals nach einem Lizenzschlüssel. Sollten Sie Windows 10 erst einmal testen wollen, können Sie die Eingabe mit Klick auf „Auf später verschieben“ überspringen.

10

Das nächste Fenster bestätigen Sie mit einem Klick auf „Express-Einstellungen verwenden

11

Nun stellt Windows Ihnen die Option, ein Online-Benutzerkonto zu erstellen, zur Verfügung. Falls Sie lieber ein klassisches Offline-Benutzerkonto verwenden möchten, klicken sie auf „Diesen Schritt überspringen

12

Geben Sie im nächsten Fenster den von Ihnen gewünschten Benutzernamen an und klicken Sie auf „Weiter

13

Jetzt konfiguriert sich Windows selbst. Hier müssen Sie nur abwarten.

14

Im letzten Schritt präsentiert sich Ihnen der neue Windows 10 Desktop.

Falls nun noch Treiber für einzelne Komponenten fehlen, oder Sie Herstellertreiber anstatt der Windows-Standardtreiber verwenden wollen, legen Sie die jeweilige Treiber-CD ein oder laden Sie diese aus dem Internet herunter. Das jeweilige Setup leitet Sie durch die Treiberinstallation.

Herzlichen Glückwunsch, Ihr neues System ist jetzt einsatzbereit!

Wie Sie sehen ist der Zusammenbau und die Inbetriebnahme eine PCs heutzutage weit entfernt vom Aufwand vergangener Tage. Mit ein wenig Übung sollte es quasi jedem Anwender gelingen sein System selbst aufzusetzen. Vor allem in Anbetracht der Tatsache, dass viele Komplett-Systeme zwar alltagstauglich sind, bei genauerer Betrachtung aber oft Flaschenhälse durch leistungsschwache Komponenten aufweisen, stellt die individuelle Zusammenstellung der Komponenten einen echten Mehrwert dar. So wird es Ihnen möglich, Ihren PC optimal auf alle von Ihnen gestellten Anforderungen abzustimmen und Leistungsengpässe so von vorne herein zu vermeiden. Mit einem selbst konfigurierten System erhalten Sie effektiv die maximale Leistung für das von Ihnen angepeilte Budget.

SD-Karten der neuen Generation

Von | 11. Dezember 2015

Da sich die Technologien in den modernen Mediengeräten rasant verbessern und immer mehr Daten produziert werden, werden auch permanent neue Möglichkeiten zur Datenspeicherung entwickelt. Speichermedien wie SD-Karten entwickeln sich ständig weiter. Dadurch hat sich in wenigen Jahren ein Wirrwarr aus Bezeichnungen für die genauen Spezifikationen von Speicherkarten ergeben – zum besseren Überblick darüber, was in der jeweiligen SD-Karte steckt, muss man wissen, was die einzelnen Logos und Bezeichnungen auf der Speicherkarte bedeuten.

Je nach Speicherkapazität unterscheidet man SDHC (SD High Capacity) und SDXC (SD eXtended Capacity) Speicherkarten. Bis zu einer Größe von 32GB wird von einer SDHC gesprochen, danach wird die SD-Karte als SDXC-Karte bezeichnet, welche Speichermengen bis zu 2TB beherbergen kann. Bei Abmessung und Kontakten ändert sich dabei nichts. Der Speicherkartenhersteller Kingston bietet momentan SDXC-Karten mit einer Kapazität von bis zu 512GB an.

Bei der Auswahl einer SD-Karte ist neben dem Speicher vor allem die Lese- und Schreibgeschwindigkeit wichtig. Je höher die sequentielle Schreib- und Leserate, desto schneller können große Datenmengen auf die Speicherkarte transferiert werden. Nutzt man die SD-Karte beispielweise für eine Kamera, kann mit einer schnelleren Übertragungsrate die Pufferzeit (die Zeit, die gebraucht wird, um die Daten auf der Karte zu speichern) zwischen Aufnahmen reduziert und dadurch hochauflösendere Fotos oder Videos in Kinoqualität aufgenommen werden. Auch mehr Bilder in kürzerer Zeit werden möglich, z.B. bei Serienbildreihen.

Ob man eine schnellere Speicherkarte benötigt, erkennt man an verschiedenen Anzeichen wie: Es dauert sehr lange, bis ein aufgenommenes Foto komplett auf die Karte geschrieben ist oder Videodateien als fehlerhaft oder in schlechter Qualität dargestellt werden. Wichtig bei der Wahl einer SD-Karte ist dabei, dass die entsprechende Schnittstelle und die Geschwindigkeitsklasse auch vom Endgerät unterstützt werden müssen, um die maximalen Geschwindigkeiten zu erreichen. Die Karten sind zwar abwärtskompatibel, arbeiten dann aber langsamer und können ihr Potential nicht ausschöpfen.

kingston SD

Leistungsklasse

Die Leistungsklasse gibt die Mindestübertragungsrate ohne einen UHS-Bus an. An erkennt diese Klasse (2, 4, 6 oder 10) durch eine auf der Speicherkarte aufgedruckte Zahl in einem rechts offenen Kreis. Sie gibt dabei die entsprechende Datenübertragung in Megabyte pro Sekunde an, eine Karte der Klasse 10 überträgt Daten also mindestens mit 10MB/s. Wenn das genutzte Gerät keine UHS-Schnittstelle hat, kann die Karte maximal mit dieser Geschwindigkeit arbeiten.

 

Die UHS-Schnittstelle (Bus) und die UHS-Geschwindigkeitsklasse

Geht es bei der Leistungsklasse um die minimale Geschwindigkeit, so wird mit der Ultra High Speed-Angabe (UHS) zweierlei definiert:

Die römische Ziffer (I oder II) steht für den entsprechenden UHS-Bus, also für die Schnittstelle, aus der sich die Maximalgeschwindigkeit der Übertragung ergibt. Wird die Highspeed-Karte mit einem kompatiblem Endgerät genutzt, ergeben sich bei Karten der Klasse UHS-I Lesegeschwindigkeiten von bis zu 104 MB/s und bei der neuen UHS-II-Schnittstelle können sogar bis zu 312 MB/s Lesegeschwindigkeit erreicht werden.

Außerdem findet man auf der SD-Karte eine kleine Zahl in einem „U“. Sie bezeichnet die UHS-Geschwindigkeitsklasse. Diese gibt die Mindestgeschwindigkeit der Karte an, wenn sie mit einem UHS-Bus genutzt wird. UHS-Klasse-1 steht dabei für eine Mindestgeschwindigkeit von 10MB/s und UHS-Klasse-3 für mindestens 30MB/s.

Ist das Endgerät nicht mit der neuesten Schnittstelle kompatibel, so wird die alte Leistungsklasse (Zahl im nach rechts offenen Kreis) betrachtet, welche den garantierten Mindestwert im Nicht-UHS-Modus darstellt. Durch diese Zahlen kann man also schnelle und langsame Übertragungsraten unterscheiden und eine SD-Karte anschaffen, die den eigenen Anforderungen gerecht wird.

Karten die eine UHS-Schnittstelle besitzen, werden Highspeed-Karten genannt und erreichen sehr hohe Schreib- und Lesegeschwindigkeiten, wenn sie an einen kompatiblen Bus angeschlossen werden. Von diesen hohen Geschwindigkeiten durch die UHS-Schnittstelle profitieren vor allem Fotografen, die 4K-Filmaufnahmen oder lange Serienbildreihen machen wollen, oder wenn ein schnelles Kopiertempo erwünscht ist.

Kingston SDXC

Highspeed SDHC/SDXC-Karten von Kingston

Der Speicherkartenhersteller Kingston bietet solche SDHC/SDXC-Karten im Highspeed-Bereich mit enormen Speicherkapazitäten an:

Kingston bietet zwei Serien von UHS-1-Karten an (genauere Bezeichnung: SDHC/SDXC UHS-I-Klasse-10-Karten), deren Speicherkapazitäten von 8GB bis 512GB reichen.

Durch den hochentwickelten UHS-I-Bus und die UHS-1-Geschwindigkeitsklasse bieten sie enorme Geschwindigkeiten und beeindruckende Übertragungsraten. Und auch wenn sie mit einem nicht-UHS-I-fähigen-Gerät benutzt werden, wird der Nutzer dank Leistungsklasse 10 (mindestens 10MB/s) nicht enttäuscht.

Die SD-Karten der SD10VG2-Reihe bieten dabei eine maximale Lesegeschwindigkeit von 45MB/s und die Karten der SDA10-Reihe lesen mit bis zu 90MB/s.

Diese enormen Geschwindigkeiten sorgen beim Fotografieren für reduzierte Pufferzeiten zwischen den Shots, sind optimal für Serienbildreihen von bewegten Objekten oder auch die Aufnahme von Full-HD-Videos und 3D-Videos in Kinoqualität. Und durch bis zu 512GB Speicherkapazität bieten die SD-Karten auch genug Platz für hochauflösende Aufnahmen in HD-Qualität.

SDC10G2_64GB_hr

Der kleine Bruder: microSDHC/SDXC

Neben den normalen SD-Karten bietet Kingston seit Oktober in der gleichen Reihe auch eine microSDHC/SDXC-Karte an, die mit den gleichen Übertragungsraten arbeitet. Sie ist deutlich kleiner und leichter als eine normale SD-Karte, was sie vor allem für kleinere Geräte optimiert. Auch sie liefert dank UHS-I Klasse 10-Spezifikationen enorme Geschwindigkeiten. Mit einer Lesegeschwindigkeit von 45MB/s und bis zu entspricht sie der Leistung klassischer SD-Karten, durch ihren kleinen Formfaktor ist sie geeignet für kleine und kompakte Mediengeräte wie Smartphones, Tablets oder Actioncams. Auf bis zu 128GB Speicherplatz können Fotos, Videos, Musik, Dateien, Apps, Spiele, Filme und vieles mehr gespeichert werden.

Die microSD-Karten können mit einem Adapter in SD-Format gebracht werden, was sie mit Geräten mit SD-Slot oder den PC kompatibel macht.

Noch dazu sind die SD-Karten von Kingston enorm langlebig: Auch bei rauen und unsicheren Witterungsbedingungen sorgen sie dafür, dass die Daten auch in Ausnahmesituationen geschützt sind. Sie sind wasserdicht, stoßresistent und funktionieren auch bei Extremtemperaturen.

Außerdem bietet Kingston auf seine SD- und microSD-Karten eine lebenslange Garantie sowie kostenlosen Support. Die SDHC/SDXC-Speicherkarten sind dadurch eine optimale Ergänzung zu den mobilen Geräten der neuen Generationen.