Mittwoch, 26. Dezember 2012

All-in-One PC DIY

Vor kurzem habe ich wieder eine altbekannte Unterhaltung geführt:

Er: "Hey, kannst du mir helfen? Ein Verwandter möchte seinen alten Computer ersetzen, da er nicht mehr funktioniert."
Ich: "Wofür nutzt er denn seinen Computer so?"
Er: "Naja, eigentlich surft er gelegentlich mal im Internet, liest seine eMails und macht ein bisschen was mit Office."

Mit der obligatorischen Frage nach der Nutzung lässt sich eigentlich schon immer ein recht gutes Bild davon malen, was dort eigentlich an Technik gebraucht wird. Meistens jedoch fällt die Nutzung verdammt spärlich aus. Auch wenn Computer heutzutage nicht mehr teuer sind und Desktop-Computer ohnehin auf dem Rückzug sind im verlorenen Kampf geben Note-, Net-, Ultrabooks, Smartphones und Tablets, stellt sich dem verantwortungsvollen Konsumenten doch irgendwie die Frage, weshalb man eigentlich jedes Mal für derartig dürftige Anforderungen ein neues Gerät kaufen sollte, welches im einfachsten Fall heute bereits mit einigen Gigabyte Arbeitsspeicher, einer Mehrkernprozessorarchitektur, einer Platte mit Hunderten Gigabyte Speicherkapazität und selbst für Onboardgrafiklösungen flinken Bilderzeugern daherkommt. Meine Meinung: überdimensioniert.

Also kommt die nächste Frage als logischer Schluss: warum nutzt man nicht den alten PC weiter? Antworten reichen von Hardware defekt über zu langsam bis hin zu hässlich und nicht mehr zeitgemäß. Eigentlich hätte ich in diesen fällen eher das Verständnis über einen Computer als Werkzeug in die Kategorie "nicht mehr zeitgemäß" eingeordnet. Für die beiden ersten - und tatsächlich glaubhaft argumentierbaren - Fälle lassen sich Lösungen finden. Defekte Hardware austauschen und sowohl die Flaschenhälse und Sollbruchstellen der Hardware erneuern (primär Festplatten - so hat eine SSD meinem 5 Jahre alten Notebook zu neuer Jugend verholfen - und Lüfter, bei Notebooks noch Akkus) als auch vielleicht zu der oft verhassten drastischen Maßnahme greifen, dass Betriebssystem neu aufzusetzen. In vielen Fällen deutet die Nutzung darauf hin, dass sich der geneigte Nutzer ein weiteres Geschwindigkeitsupgrade von einem Wechsel auf eine Linux-Distribution erhoffen kann.

Wie dem auch sei - aus der Idee eines Recyclings alter Technik war schnell ein neues Projekt geboren. So stand ein altes ATX-Mainboard samt Belegung in Form eines Core2Duo, 3 GB Ram, 500 GB HDD und eines Netzteils in einem alten Mini-Gehäuse vor dem Scheideweg zwischen Entsorgung und Überholung. Dazu gesellte sich ein alter 15-Zoll LCD-TFT sowie ein noch älterer 15-Zoll CRT im gleichen 4:3-Format.

Was folgte war eine Eingebung, viel Glück mit den Maßen, etliche Stunden Arbeit und ein wenig Gewalt.
...fertig. All-in-One Marke Eigenbau
Das Ergebnis kann man hier sehen - auf den ersten Blick scheint es immer noch der erwähnte 15-Zoll-Monitor zu sein. Der jedoch hat im Laufe des Projektes seine Röhre verloren und dafür das (leider etwas zu große - Scaling sei dank) TFT-Panel geerbt. Unschön und ungelöst ist die Tatsache, dass die Röhrenvorderseite gewölbt war (was auch zu den Fehlpassungen trotz gleicher Diagonale führte), während das Panel eben ist und dadurch Zwischenräume mittig an den Kanten zwischen Gehäuse und Panel entstehen. Super ist aber, dass dadurch viel Platz im hinteren Raum des Monitor-Gehäuses frei wurde. Hier wurde nun das komplette Innenleben des alten PCs hinein verpflanzt. Durch eine glückliche Fügung passte das Mainboard maßgenau in den Metalleinschub des Gehäuses. Dadurch liegt es und die CPU-Kühlung liegt auf, wodurch keine Belastung der Bohrung im Mainboard verglichen zu einem senkrechten Einbau folgen. Gleichzeitig wird das Anschlusspanel des Mainboards nach hinten aus der Gehäuserückseite herausgeführt. Ein bisschen gebohrt, geklebt und geschraubt, schon sitzen auch Festplatte und Netzteil - von innen an die obere Seite der Gehäuserückseite montiert.
All-in-One-DIY Innenleben
Nur noch den ehemaligen Monitor-Powerknopf als Power-On umfunktionieren und mit dem Mainboard verbinden, das Gehäuse zusammenschieben, Strom und Peripherie anschließen und ab gehts. Aus alt und ungeliebt macht neu und stylisch. Naja...neu erfunden habe ich damit zwar die Idee des All-in-One nicht, aber drei recycelte Geräte und ein Wolf im Schafspelz sprechen für sich, denke ich. Surfen und Exceln kann man damit allemal.

Montag, 24. Dezember 2012

Multitouch - Couchtisch 2.0

Jetzt habe ich endlich Zeit für eine Aufbereitung eines für mich wichtigen Projektes aus diesem Jahr gefunden. Sozusagen ein Weihnachtsspecial, welches keins hätte werden sollen...

Mit der SATURN-Filiale in den Schlossarkaden in Braunschweig verbinde ich - sonst gegenüber "Wir sind in allem gut!"-Märkten eher kritisch eingestellt - ein tolles Kauferlebnis. Vor inzwischen etlichen Jahren überflog ich morgens in der Lokalzeitung das Angebot besagter Filiale und fand einen faszinierenden Inventurabverkauf: einen Acer T230H. Dieser Monitor ist einer der ersten einigermaßen erschwinglichen Touchscreens mit einer für solche Zwecke enormen Größe von 23 Zoll und einem auch sonst für damalige Maßstäbe brauchbaren Panel. Der Knüller war der Preis von unter 200,- €. Obwohl ich das Angebot für eine Ente hielt, raste ich in die Stadt und ergatterte tatsächlich das augenscheinlich letzte von 3 angepriesenen Exemplaren. Danke Saturn!

Natürlich hat der Touchscreen mit der Multitouch-Funktion (nachweisbar bislang unter Windows nur Dual-Touch) technisch wenig mit den heutigen Touchscreentechnologien gemein, sondern scheint über eine Optik im Gehäuserand bereits nahende Berührungsabsichten per USB an den PC zu melden. Die Genauigkeit ist sicher nicht überragend, aber mit einer entsprechenden Oberfläche (a.d.R. und hier liegt der Hund bis heute begraben!) absolut zufriedenstellend. Es hat etwas vom Stil eines "Minority Report", wenn man mit der Hand über eine 23-Zoll große Monitorfläche wischt und dabei nicht nur den Staub wegwischt.

Nach kurzer Euphorie stellte sich erste Ernüchterung ein, da die alberne Vorstellung, länger mit beiden Händen an einem Monitor arbeiten zu können, der vor einem steht ungefähr so absurd ist wie vertikales Pizzaessen. Die Arme sind derart schnell erschöpft, dass man doch wieder zum Touch-Hilfsmittel #1 greift, der Maus. Also musste eine Lösung her. Wer mit der Arbeit mit mehreren Monitoren vertraut ist, wird vielleicht schon mal darüber nachgedacht haben, die Monitore nicht nur NEBENeinander, sondern ÜBEReinander aufzustellen. Somit war der große Bruder des von der Nintendo DS bekannten Designs geboren. Während man sämtliche Fenster im unteren Monitorbereich bequem mit der Hand bedienen konnte, war der obere Monitor ein klassischer Vertreter und wurde mit Maus und Tastatur bedient. Besonders angenehm wäre natürlich gewesen, Software zu testen, deren Ausgabe- und Eingabe in zwei Fenster getrennt ist, wodurch die Bedienung sich erfolgreich über beide Monitore erstrecken würde.

Das Fehlen einer solchen Softwareumgebung hatte eine seltene Nutzung des Monitors zur Eingabe zur Folge. Was mich hingegen seit den ersten Berichten immer gereizt hat, war die Idee von interaktiven Tischen mit einer gleichzeitigen Anzeige- und Eingabeoberfläche. Das Microsoft Surface stellt dabei einen in der Öffentlichkeit wahrgenommenen Meilenstein dar.

Das Ziel und die nächste Verwendungsmöglichkeit für den Allrounder-Monitor war gefunden. Nun stellten sich die inhaltlichen Fragen: Wie musste ein passender Tisch aussehen? Wie käme das Loch dort hinein? Wie sollten die Anschlüsse verlegt werden? An welche Quelle sollte der neue Monitor angeschlossen werden? und nicht zuletzt: wofür nutze ich diese Konstruktion dann überhaupt?

Ein einfacher weißer Coutisch aus Holz mit einem nach unten gezogenen Rand und großen U-förmigen Hohlprofilbeinen ließ für 99,- € keine Wünsche offen. Hier konnte nicht nur leicht für ein passendes Loch gesorgt werden, für umstehende Beobachter unsichtbar das Technikchaos (anfangs noch Stromleitung inkl. Verteiler, Netzteil, USB- und HDMI-Kabel, später noch ein kompletter Computer) verborgen werden und die drei ausgehenden Kabel elegant durch die Hohlprofilbeine zum Boden geleitet werden, sondern es war auch noch preislich einiger Maßen verkraftbar, sollte das Abenteuer aus Unfähigkeit & Frust  in einem wütenden Gemetzel enden.

Vergleich Couchtisch vorher - nachher


Das passierte dann glücklicherweise nicht. Obwohl die Designabteilung von Acer meiner primitiven Sägekunst durch die Fünfeckform des Monitors (leicht hervorstehende mittige Ecke am unteren Rand) alles abverlangte und so den Zeitplan durch wiederholtes Sägen und Feilen ordentlich durcheinanderwirbelte, konnte der Monitor schließlich durch ein Loch im Tisch fallen (das war gut, da es bedeutete, dass er passte!), dessen beklagenswerte Ränder - die Lackierung war hier der Säge zum Opfer gefallen - durch entsprechend gestutzte L-Profile aus Aluminium scham- doch wirkungsvoll verdeckt werden konnten. Gestutzt habe auch ich hinterher, da die Schändigung des Tisches ein derart kunstvolles Ergebnis hervorbrachte.

Der fertige Tisch mit den Kabeln unten links
Jetzt waren Stil und Funktion vereint, da sowohl Tisch als auch Monitor nach der Operation noch lebten. Die ersten Anwendungen waren auch schnell im Microsoft TouchPack gefunden, installiert und bestaunt. Hier konnte - im Gegensatz zu Google Earth - eine Globus-Applikation mit Multitouch ganz gewohnt geschoben und skaliert werden. Dabei wurde der Monitor noch als Peripherie eines externen Desktop-PC "beatmet". Ziel war es, die Recheneinheit so nah wie möglich an den Monitor zu bringen - sozusagen eine Einheit zu erstellen. Nach kläglichen Versuchen, eine eigene platzsparende, leise, sinnvoll ausgestattete und preislich erschwingliche Konfiguration von Komponenten zu finden, kam ein Tipp aus einer gänzlich unerwarteten Ecke und so ist der Foxconn Nettop nT-i1500 in den Fokus gekommen. Bestechend sind hier die Kombination aus ziemlich runder Hardware (4GB Ram, SSD, Cardreader, Dual-Core Atom, WLAN, USB 3.0, leise Kühlung dank externem Netzteil), tollen Maßen mit variabler Verbaubarkeit durch VESA-Mount und einem überraschend kleinem Preis.

Fertig verkabelter Tisch ohne Monitor von unten
Jetzt stand das Hardwaregerüst erst einmal (BD-Laufwerk wird nachgerüstet als externes Slim-Slot-In, vielleicht sogar mit Slot im Tisch) - nun musste die Software folgen. Als Mediacenter geplant, war der erste Gedanke natürlich das neue Windows 8 mit seiner berührungsliebenden Metro-Oberfläche:
Fertiges System mit Windows 8 und Metro

Obwohl die Installation hinreichend problemlos von Statten ging, wurde ich mit Windows 8 überhaupt nicht warm. Die schlecht anpassbare Metro-Oberfläche erfüllte keine der gewünschten Funktionen an eine interaktive Media-Oberfläche (Musik, Filme, Bilder, Internet) in akzeptablem Umfang. Dazu gesellte sich ein hartnäckiges und bis heute ungelöstes Treiberproblem des Intel-Grafikchips seitens des Herstellers Intel, welches sich darin bemerkbar machte, dass keine Full-HD-Auflösung gleichzeitig per HDMI an den Fernseher und per VGA an den Acer ausgegeben werden konnte. Lustiger Weise äußerte sich der Fehler in der 32 Bit-Version zusätzlich durch eine Graustufenbildausgabe (dafuq?!). 

Kurzum - Windows 8 war in der Gunst direkt nach 5 Stunden der Verzweiflung dann Nachts um 2 rasant gefallen. Es musste das vertraute Windows 7 her. Mangels optischen Laufwerks war auch hier nun die Installation von einem USB-Stick nötig. Ein mir bislang unbekannter Fehler während der Installation - die verzweifelte Suche der Installationsroutine von Windows-7 nach einem Festplattentreiber - lies den Blutdruck erneut nach oben schnellen. BIOS-Check, RAID ausgestellt, Windows-7-Image um RAID-Treiber erweitert - nichts davon half. Der letzte Tipp dann kam aus einem dubiosen Forum und klang eher schwach: "Wechseln Sie beim Auftreten des Fehlers mit dem Stick den USB-Anschluss, dann geht es munter weiter". Und tatsächlich! Mir wird nicht einleuchten, weshalb dieser Fehler überhaupt auftritt - geschweige denn, wieso die Lösung so aussieht, aber immerhin hat es funktioniert! Der fehlende Grafikkartentreiber macht sich zwar auch unter Windows 7 bemerkbar, jedoch funktioniert hier die volle Auflösung mit einer improvisierten Treiberlösung. 

Blöd war natürlich, dass jetzt noch ein Mediacenter her musste. Zur Auswahl stand neben dem obligatorischen Windows Media Center (nah) noch die guten Erfahrungen mit dem MediaPortal und die vielversprechende Portierung des XBOX-Mediacenters XBMC für Windows. Letzteres machte den Punkt und überzeugt mich täglich mehr durch die umfangreichen funktionellen Erweiterungen, das flüssige Arbeiten, die tolle Android-App sowie die professionelle Oberfläche.

Fertiges System mit Win 7 und XBMC
Damit ist das Wohnzimmer jetzt zumindest erst einmal für eine gewisse Zeit technisch auf einem guten Stand und sowohl von den Standards und Möglichkeiten her top integriert als auch toll zu bedienen. Inzwischen nutze ich Unified Remote sowie die dazugehörige Android-App als komfortablen Maus- und Tastaturersatz zur Steuerung auf dem Smartphone. Acer jedenfalls fand die Idee auch nicht ganz verkehrt.

Und für jeden, der sich das noch gefragt hat: den Sound bekomme ich über das HDMI-Kabel, indem das in den AV-Receiver von Onkyo wandert (ebenfalls per Android-App steuerbar) und von dort das Bild an den Fernseher weiterleitet. Durch die Übertragung per HDMI-Kabel habe ich nicht nur ein weiteres Kabel gespart, sondern auch eine durchgehend digitale Übertragung sowie die theoretisch höchstmögliche Auflösung von 192KHz bei 24Bit aus dem Computer geholt. MP3s klingen damit aber auch nicht besser. ;)

Auf eure Meinungen und Tipps bin ich gespannt!

Sonntag, 23. Dezember 2012

Smartphones - was sie sind und was sie noch werden können

Zunächst erst einmal eine Entwarnung an alle Leser, die noch ein Smartphone-freies Leben führen: Ja, man kann auch ein Smartphone zum Telefonieren verwenden und notfalls auch nur dafür.

Eigentlich beschäftigt mich aber eher die Frage, wen man im Begriff Smartphone eigentlich für smart hält? Die Geräte selbst aufgrund ihrer tollkühnen Rechenleistung und unsagbaren Funktionsvielfalt oder eher deren "Halter", die ohne erweiterte kognitive Fähigkeiten diese Höllenmaschinen kaum mehr zu bändigen wüssten? Vermutlich liegt die Wahrheit zumindest in der Realität in der Kombination aus beidem.

Rückblickend auf inzwischen mehrjährige Erfahrungen mit zwei Referenzen der Smartphonewelt, dem Samsung Galaxy S2 und inzwischen dem Samsung Galaxy S3 bin ich vermutlich im guten gefühlten Mittel von Freud & Leid und als inzwischen moderater Nutzer von "Apps" zur Funktionserweiterung vielleicht auch als Otto-Normalnutzer aus Sicht der Hersteller nicht unterrepräsentiert.

Was hat sich wirklich mit den Smartphones und durch sie verändert? Zugegeben, mein neues Telefon kennt meine eMails, meinen Kalender, meine Aufgaben, meine sozialen Netzwerke, dadurch meine Freunde, meine Musik, meine Fotos, meine Bücher und Dokumente, meine Vorlieben beim Einkaufen, bei den Nachrichten, meine Position auf der Welt, meine Gedanken in Blogs, meinen Gas-, Wasser- und Stromverbrauch, meine (un)sportlichen Aktivitäten, meine Schlafphasen, meine Passwörter (naja, zumindest verschlüsselt), meine Ernährung und kann meine Computer und Musikanlagen steuern und es kann nicht nur telefonieren sondern auch Vibern, Skypen und chatten. Es weiß mehr als jeder Computer, den ich je hatte und ist umtriebiger in Netzwerken und ohne Firewall hier auch instransparenter als jene. Aber was bringt mir das alles? Es macht mich mobiler, ich bin unterwegs und doch erreichbar, informiert, stehe Rede und Antwort, behalte den Überblick, kalkuliere die Möglichkeiten und kenne den Weg. Das alles ist mir persönlich wichtig und wenn es das nicht wäre, könnte ich es immer noch beschränken. Aber irgendwie ist es in alldem auch mühsam und komplex - selbst für technisch Interessierte.

Mein Handy - pardon - gewitzter Fernsprechapparat aka Smartphone hört mich aber versteht mich nicht. Es weiß mehr als meine Freunde über mich, aber kennt mich nicht. Bei der Fülle an Technik in diesem Gerät ist es mir ein Rätsel, wieso ich nach einer Terminvereinbarung am Telefon diesen Termin hinterher immer noch manuell eingeben muss - der Apparat hat doch die ganze Zeit mitgehört! Weshalb kann er keine Informationen bereitstellen, wenn er doch eine fachliche Diskussion ohnehin mitliest? Langsam wird mir klar, weshalb man sich terminologisch von der Bedeutung des ursprünglichen Begriffs PDA gelöst hat (Ja liebe Kinder, es gab die Ideen schon clever umgesetzt lange vor Apple) - die Geräte sind einfach keine Personal Assistants...lediglich Digital stimmt meistens! 

Von einem echten persönlichen Assistenten erwarte ich, dass es mitdenkt und handelt und mir nicht einfach mehr Optionen gibt. Was bringt es mir denn, wenn ich ein auf einer Feier geschossenes Foto mit zwei Dutzend (pseudo-)sozialen Netzwerken "sharen" kann?! Das Telefon kennt doch den Termin aus dem Kalender und die Gesichter auf dem Foto durch die Gesichtserkennung und könnte mich direkt fragen, ob ich den automatischen Versand des Fotos als hübsch aufbereitete Postkarte an alle auf dem Foto gefundene Gesicht veranlassen möchte. Ein vernünftiger Assistent weiß doch ganz genau, dass ich eine mündliche Terminvereinbarung am Telefon vielleicht nicht halten kann, weil ich einen Paralleltermin habe. Er weiß doch genau, wann ich werktags welche Musik gern höre, welche Nachrichten lese und welche eMails ich wie gern und zeitig beantworte. Er kennt meine persönliche Beziehung zu meinen Kontakten, weiß, wann ein paar nette Worte angebracht wären. Warum kommen nur hohe Führungspersonen in den Genuss einer tatsächlich denkenden Assistentin? Meine Zeit ist mir wichtig und ich gebe immerhin ein kleines Vermögen für ein technisches Wunderwerk aus, nur um festzustellen, dass die Software nicht weit genug entwickelt ist. Das ist wie ein Gehirn voller Neuronen aber ohne Synapsen, ein Gebäude voller Zimmer aber ohne Gänge.

Mal ehrlich, sind die Funktionen der Spracherkennungen von aktuellen Handys wirklich so "intelligent"? Ich frage nach dem Wetter, verspreche mich vielleicht, baue den Satz etwas um und muss schon befürchten, dass es mich "leider nicht verstanden hat". Wie ein Esel wiederhole ich eine einfache Frage - vorgeführt von einem Gerät, was leider noch lange nicht "smart" ist. Liebe Hersteller, versteht mich nicht falsch, die Entwicklungen zeigen in die richtige Richtung, zeigen aber noch - nun ja - einiges an Potential. Vermutlich wird die Nomenklatur dann enden wie die von Monitorauflösungen, wo sich aus dem einfachen VGA inzwischen ein WHUXGA entwickelt hat. Dann analog vielleicht ein Ultra Extended Superior Smart Phone, welches mir auch die Frage nach Krawatte und Hemd für die Abendveranstaltung in flüssigem Deutsch beantworten kann. 

Bis dahin hacke ich fleißig meine Daten in eine kostenlose Software in das Gerät, damit Unternehmen zumindest das eine machen, was Sie intelligent zu beherrschen versprechen - mir (im harmlosesten aller Fälle) personalisierte Werbung anzuzeigen.

Manchmal vermisse ich die zugegebener Maßen relative Einfachheit meines letzten "normalen" Telefons, eines Sony-Ericsson K800i, damals ebenfalls ein Meilenstein der Mobilfunktechnik. Inzwischen ist es nur noch zur Powerpoint- und LEGO-Mindstorms-Fernbedienung verkommen. Mein Gott, was haben die Menschen nur vor dieser Technik mit ihrer ganzen Zeit angefangen?