2376380-rich-accessory-collection-samsung.jpg

Galaxy S6 & Edge: Samsung zeigt edles offizielles Zubehör

Der südkoreanische Elektronikkonzern Samsung hat jetzt auch offizielles Zubehör für seine kommenden Flaggschiff-Smartphones Galaxy S6 und Galaxy S6 Edge vorgestellt. Für die Schaffung der “Rich Accessory Collection” arbeitete das Unternehmen dabei mit einigen namhaften Marken zusammen. Man wolle die “Welten von Mode und Technologie” zusammenbringen, teilte Samsung mit. Dafür tat sich das Unternehmen mit Partnern wie Burton, Swarovski, Montblanc, Rebecca Minkoff und Romero Britto zusammen. Jeder von diesen soll eine Hülle für die neuen Samsung-Smartphones zum Portfolio beisteuern, die die jeweilige Stärke der Marke widerspiegelt.
So kann man sich vorstellen, was den Käufer hier erwarten wird: Swarovski hat beispielsweise ein Case beigesteuert, auf dem zahlreiche glitzernde Kristalle funkeln. Montblanc hingegen bietet hochwertig und edel wirkende Leder-Einfassungen an, während Burton eher etwas für Nutzer ist, die auf knalligbunte Designs stehen.

Angesichts der hohen Preise, die Samsung für seine neuen Flaggschiff-Modelle aufruft, bieten sich entsprechend luxuriöse Hüllen natürlich an. Doch auch Anwender, die es schlichter mögen werden bedient. So bietet das Unternehmen beispielsweise auch einfache Kunststoff-Cases an, die eher schlicht wirken und ausschließlich dem Zweck dienen, das teure Gerät vor Schäden zu schützen.

Das von Samsung selbst angebotene Zubehör beschränkt sich aber nicht auf Schutzhüllen. Aus eigenem Hause wird das Unternehmen auch neue Bluetooth-Kopfhörer liefern, die unter der eigenen Marke Level vermarktet werden. Ebenfalls für die Audio-Widergabe stellt Samsung einen Bluetooth-Lautsprecher zur Verfügung. Und ein Zubehör-Produkt darf in der Liste natürlich nicht fehlen: Die Ladestation, mit der das Galaxy S6 auch drahtlos über das QI Wireless-Modul mit Energie versorgt werden kann.

 

Zur Internetseite:

http://winfuture.de/news

Mozilla: Firefox- und Cloud-Sparte werden vereint

Der bisherige Firefox-Chef verlässt Mozilla aus privaten Gründen. Der Browser-Hersteller nutzt die Gelegenheit, die Sparte für Firefox-Produkte mit den Cloud-Dienstleistungen zusammenzulegen.

Nach acht Jahren verlässt der bisherige Hauptverantwortliche für den Firefox-Browser, Johnathan Nightingale, Mozilla aus persönlichen Gründen, wie er in seinem Blog schreibt. Als Nachfolger ist Mark Mayo bestimmt, der das Team der Cloud-Dienste seit vier Jahren leitet. Mozilla nutzt diese Gelegenheit, um die Organisation ein wenig umzugestalten: Die Cloud- und Browser-Sparten werden zusammengelegt.

Mayo ist damit verantwortlich für sämtliche Belange des Firefox, also für den mobilen Browser, die Desktop-Variante und die angeschlossenen sogenannten Cloud-Dienste. Letztere umfassen unter anderem die Synchronisation, die Firefox-Accounts, den Geolokationsdienst, den Marketplace oder auch den Videochat Firefox Hello, der WebRTC verwendet.

Mozillas Vorstandschef Chris Beard begründet das Zusammenlegen der bisher getrennt voneinander arbeitenden Teams: Demnach hätten die Beteiligten in jüngster Zeit viele Client-Anwendungen für die Cloud-Dienste in den mobilen und in den Desktop-Browser eingebaut, um das weiterzuentwickeln, was Firefox für seine Nutzer leisten könne. Diese Entwicklung solle künftig stärker unterstützt werden.

Eventuellen negativen Spekulationen, was diese Neuorganisation über Mozilla aussagen könnte, tritt Nightingale bereits im Voraus entgegen. Dem Browserhersteller gehe es wesentlich besser als noch vor einem Jahr, Nightingale sei außerdem sehr zufrieden mit der Arbeit von Beard sowie dem gesamten Leitungsteam. Letzterer höre auf, um mehr Zeit mit seiner Familie zu verbringen und sich auszuruhen. Ein neues Arbeitsangebot habe er noch nicht.  (sg)

URL der Quelle:

www.golem.de/

2352307-datenverlust.jpg

Was man nach einem Datenverlust beachten sollte, damit eine Datenrettung Erfolg hat

So verschieden, wie Menschen sind, so verschieden sind die Fehler, die sie machen. Beim Thema Computer kann es zu Fehlern kommen, deren Behebung kostspielig werden kann, vor allem, wenn es um Datenverlust geht. Da, allgemein gesagt, Datenrettung und Datenwiederherstellung oft sehr zeitaufwändig und damit teuer ist, kann ein in diesem Bereich ein Fehler sehr ärgerlich werden. Um das Ganze anschaulicher zu machen, gebe ich ein Beispiel.

In einer kleinen Firma erstellt der Chef in wochenlanger Arbeit ein Projekt und speichert es in einem Ordner auf seinem Desktop. Nach Fertigstellung der Projektvorbereitung bittet ihn eine Mitarbeiterin, diesen Ordner in den öffentlichen Ordner zu schieben, damit sich alle im Netzwerk das ansehen und ggf. Ergänzungen machen können. Wie es manchmal so ist, der Chef war gerade wegen eines wichtigen Telefonats abgelenkt und zog den Ordner mit drag and drop in den öffentlichen Ordner, so dachte er jedenfalls. Nach dem Telefonat arbeitete er weiter an seinem Computer und stellte fest, dass der Projektordner immer noch auf seinem Desktop lag. Er ging fälschlicherweise davon aus, dass er den Ordner wohl nicht verschoben sondern in den öffentlichen Ordner kopiert hatte und löschte den Projektordner auf dem Desktop und zwar gleich endgültig, sodass die Datei nicht mehr im Papierkorb zu finden war. Eine Datenrettung war hier nicht mehr möglich, weil der Chef den Rat des Unternehmens, das Datenrettung und Datenwiederherstellung anbietet, ignorierte und mit Rechner weiter arbeitete. Das Problem hierbei ist, dass ein Windows PC, selbst, wenn man nicht daran arbeitet, ständig auf die Festplatte schreibt. Und hierbei besteht die Gefahr, dass die als gelöscht markierten Daten überschrieben werden und dadurch nicht mehr wiederherstellbar sind. Aus diesem Grund ist am allerwichtigsten, dass bei Datenverlust der betreffende PC sofort heruntergefahren wird, um ein ungewolltes Überschreiben zu verhindern. Viele Daten hätten vermutlich noch gerettet werden können (z.B. von der Datenrettungsfirma mein pc wieder ok.de), wenn die User die Rat beherzigen würden. So wird die Arbeit einer Datenrettung oder Datenwiederherstellung umso mühsamer und weniger aussichtsreich.

Reparatur-Tricks: Smartphone kaputt? So können Sie es günstig retten

Smartphone und Schlüssel in derselben Tasche – das gibt schnell einen Kratzer im Display. Und andere Defekte passieren auch ohne Zutun des Besitzers, etwa wenn der Akku im Tablet streikt und sich nicht ohne weiteres wechseln lässt. In solchen Fällen geht es nicht ohne Reparatur, im Idealfall mit Hilfe von Garantie und Gewährleistung. Doch was, wenn Hersteller und Händler nicht mehr helfen?

“Einige Reparaturen am Smartphone oder Tablet können Verbraucher auch selbst durchführen”, sagt Sarah Raymaekers vom Telekommunikationsportal “Teltarif.de”. Neben Fingerspitzengefühl brauchen Bastler dafür vor allem passendes Werkzeug, eine gute Anleitung und ein wenig Geduld. Hektikern empfiehlt die Expertin, eine Fachwerkstatt zu besuchen.

In Eigenregie lassen sich zum Beispiel beschädigte Backcover, Displays oder Akkus austauschen. Das gilt aber nicht für jedes Gerät. “Es ist prinzipiell vom Modell abhängig, ob man das Gerät selbst reparieren kann”, erklärt Stephan Hartmann von der Zeitschrift “Chip”. Sind die Gehäuse nur verschraubt, ist der Austausch für Bastler meistens kein großer Akt.

“Ist das Gehäuse aus einem Stück – Unibody genannt – oder sind Komponenten fest verlötet, wird es deutlich schwieriger”, so Hartmann, der im Testlabor der “Chip” als Messtechniker arbeitet. Sarah Raymaekers von “Teltarif.de” empfiehlt, vorab in Internetforen anhand von Erfahrungsberichten zu prüfen, ob sich das defekte Geräteteil mit einfachen Handgriffen auszutauschen lässt.

Austausch von Displays ist besonders kompliziert

Für passende Bauteile ist das Internet die beste Anlaufstelle. “Ersatzteile findet man auf diversen Webseiten oder direkt bei Ebay”, sagt Stephan Hartmann. Hierfür müssen Nutzer nur das Modell und den Begriff “Ersatzteile” in der jeweiligen Suche eingeben. “Manchmal lassen sich auch identische Modelle mit einem kleinen Schaden als Ersatzteillager verwenden”, so der Tipp des Experten.

Das passende Werkzeug, etwa spezielle Schraubendreher zum Öffnen der Geräte, gibt es in sogenannten Reparatursets. Die können Bastler bei Anbietern wie Ifixit oder Fixxoo im Netz bestellen. “Für eine Einmal-Reparatur reicht das in der Regel aus”, sagt Hartmann. “Wer öfter Reparaturen vornimmt, sollte aber in ein Werkzeug-Set für Feinelektronik investieren.”

Selbst mit Werkzeug und Ersatzteilen sollten Verbraucher aber auf keinen Fall ziellos drauflosschrauben. “Vor der Reparatur sollten Bastler Schritt für Schritt die Anleitung für jedes Modell ansehen und unbedingt die Warnhinweise befolgen”, erklärt Stephan Hartmann.

Besonders kompliziert für Anfänger ist oft der Austausch von Displays. “Dazu gibt es zwar eine Menge Anleitungen und Reparaturvideos im Netz, aber man benötigt Zeit und Geduld”, sagt Raymaekers. Denn um ans Display zu gelangen, muss häufig das gesamte Gerät zerlegt werden: “Viele kleine, zum Teil spezielle Schrauben, Kabelverbindungen und Kleinteile muss der Bastler sorgfältig lösen und wieder zusammensetzten.”

Wer zu Hause schraubt, kann viel Geld sparen

Wer sich von so viel Bastelei überfordert fühlt, kann Hilfe in sogenannten “Reparatur-Cafés” suchen. “Das Repair Café ist ein Hilfe-zur-Selbsthilfe-Konzept”, sagt Elisa Gasch vom Repair Café Kunst-Stoffe in Berlin. “Ehrenamtliche Helfer und Experten unterstützen Besucher dabei, so viel wie möglich an kaputten Geräten und Gegenständen selbst reparieren zu können.” Kosten fallen dabei nur für die Ersatzteile an, viele Teilnehmer geben außerdem eine kleine Spende.

Die Skepsis vor der Technik ist bei vielen Café-Besuchern schnell überwunden: “Die Praxis hat zeigt, dass nach den ersten Schrauben am Gehäuse die Hemmungen fallen und die Gäste danach sogar gerne den Schraubendreher und mit etwas mehr Eingewöhnung den Lötkolben in die Hand nehmen”, erklärt Elisa Gasch.

Eine Übersicht von Reparatur-Cafés findet sich im Internet beispielsweise auf der Seite “Anstiftung.de”, die sich auf offene Werkstätten, Reparaturinitiativen und Gemeinschaftsgärten spezialisiert hat. Wer im Café oder zu Hause schraubt, kann damit viel Geld sparen.

Neben der investierten Zeit, fallen nur die Kosten für die Ersatzteile und das Werkzeug an. “Dennoch gibt es im Netz viele günstige Reparaturdienste – sich einen Kostenvoranschlag einzuholen, kann nicht schaden”, erklärt Sarah Raymaekers. Generell empfiehlt sie Nutzern, Reparaturdienste und Ersatzteilkosten genau zu vergleichen.

 

Zur Anbieter-Website:

www.welt.de/wirtschaft/webwelt/article137625754/Smartphone-kaputt-So-koennen-Sie-es-guenstig-retten.html

Diese Grundsätze sollten Sie bei einer Datensicherung beachten

Viel zu wenige PC-Nutzer führen regelmäßige Backups ihrer wichtigen Daten durch, doch selbst wenn man diszipliniert ist und die Daten regelmäßig sichert, kann es ein böses Erwachen geben. Wichtigster Grundsatz für die Sicherheit der persönlichen Daten ist, immer mindestens 2 Datenträger, am besten externe Festplatten, für die Backups zu verwenden. Es ist ziemlich unwahrscheinlich, dass 2 Festplatten gleichzeitig ihren Geist aufgeben. Aber leider genügt das allein nicht. Man muss noch an einen anderen wichtigen Grundsatz denken. Der betrifft den Verschleiß von HDD’s (im Gegensatz von SSD’s, die rein elektronisch funktionieren). Auch wenn eine externe Festplatte üblicherweise nicht ständig am Rechner hängt und somit in Betrieb ist, verschleißen diese Festplatten alleine schon aufgrund der Alterung. Eine Bekannte von mir hatte kürzlich diesen Fall. Sie verwendete seit Jahren ihre externe Festplatte von Samsung mit 160GB Kapazität (daran merkt man schon, wie alt die Festplatte war) zur Speicherung bzw. Auslagerung ihrer wichtigen Daten. Dabei ignorierte sie den oben erwähnten Grundsatz, die Daten immer auf 2 voneinander unabhängigen Datenträgern zu speichern und hatte dann das Pech, dass ihre alte externe Festplatte irgendwann den Dienst versagte. Ausgerechnet der wichtigste Ordner auf der Festplatte enthielt nur noch verwaiste Dateieinträge, die Dateien selbst waren unauffindbar. Nach einigem Herumprobieren mit kostenlosen Datenrettungsprogrammen gab sie schließlich auf, vor allem deshalb, weil ihr von einem professionellen Datenrettungsunternehmen gesagt wurde, dass man als Laie im Zweifelsfall noch mehr Schaden anrichten könne, wenn man nicht genau weiß, was man da eigentlich tut.

Nun war guter Rat teuer und meine Bekannte brachte ihre defekte externe Festplatte schlussendlich zu einem Anbieter von Datenrettung und Datenwiederherstellung von defekten Datenträgern bzw. Festplatten. Sie hatte Glück und der Dienstleister erwies sich als eine gute Wahl. Er konnte die verschwundenen Daten wiederherstellen und verlangte dafür einen sehr zivilen Preis, der zwar auch weh tat, aber durchaus angemessen war. Dazu kopierte er alle anderen Daten von der defekten Festplatte auf eine neue externe Festplatte, sodass meine Bekannte letztlich keinen Datenverlust zu beklagen hatte. In diesem Fall also Ende gut alles gut.  Wem ein ähnliches Malheur passiert ist, der kann sich hier ja mal Rat holen oder seine Daten retten lassen.

Berufsspieler – Games vorbestellen : Ein Schuss ins eigene Knie

So läuft das nun mal: Die großen Blockbuster der Spielebranche sind jahrelang in Entwicklung – und auch die PR-Abteilungen der großen Herausgeber sind schwer beschäftigt. Mit kleinen Häppchen an “Exklusiv-“Previews, (oft geschönten) Vorab-Screenshots, streng bewachten Pressevorführungen auf Messen oder regelmäßig veröffentlichten Teaser-Videos, in denen allzu oft kaum Gameplay zu sehen ist, wird die Vorfreude auf das kommende Megaseller-Spiel geschürt. Für viele Spieler ist diese Vorfreude fixer Teil des Gesamtpakets – und es ist Ehrensache, den kommenden Bestseller schon monatelang vor Veröffentlichung vorzubestellen.

Preorders, also Vorbestellungen von Spielen, die sich meist noch nicht einmal einer spielbaren Alpha-Phase nähern, sind eigentlich ein Relikt aus der Zeit vor der digitalen Distribution. Sie waren sinnvoll, um den Albtraum von Spielefans weltweit abzuwenden: nach all dem Warten am Veröffentlichungstag kein Exemplar des heiß begehrten Spiels zu ergattern. Mit dem Ende dieses Problems der physischen Kopie und digitalen Downloads ist das Geschäft mit der Vorfreude aber nicht weniger geworden – im Gegenteil: Es hat sich bis ins Absurde verschärft.

Die Tricks der Herausgeber

Um sich die heiß begehrten Vorabkäufe zu sichern, lässt sich die Branche zunehmend neue Tricks einfallen – schließlich ist bei den am meisten begeisterten Fans auch am meisten zu holen. Was ein wahrer Enthusiast ist, holt sich nicht bei Release die schnöde Standard-Version, sondern schlägt schon Monate zuvor bei der Digital-Deluxe-Collector’s Edition zu. Die kostet zwar bis zum Anderthalbfachen des Normalpreises und man muss de facto die Katze im Sack kaufen, aber dafür winken “exklusive” Zusatzinhalte: spezielle In-Game-Items, Kostüme, Nebenmissionen oder – für die besonders Zahlungskräftigen – Collector’s Editions mit teuren Goodies wie T-Shirts, Spielfigurenstatuetten oder Postern.

Schon letztes Jahr führte der Dschungel an verschiedenen “Editions” von “Watch_Dogs” zu Kopfschütteln: Auch Auskenner kapitulierten vor dem Wildwuchs, der je nach Kaufdatum, Distributionsform und Preis insgesamt auf zehn verschiedene Varianten verstreut war. Dass durch den Vorbestellwahn zusätzlich der Unart Vorschub geleistet wird, ehemals vollständige Titel schon am Release-Tag in zahllose extra zu bezahlende DLC-Häppchen zu zerstückeln, ist eine eng damit verknüpfte Unsitte des modernen Gamings. Am allerliebsten wäre es der Branche, die Fans würden neben dem Spiel selbst auch gleich den “Season Pass” mitvorbestellen und so ihr blindes Vertrauen in das Spiel gleich auf alle nachgereichten DLC-Häppchen ausweiten.

Geblendete Vorbesteller

Stellt sich der vorbestellte Titel dann allerdings als verbuggte Software-Ruinen heraus, haben die vom Pre-Release-Hype Geblendeten das Nachsehen. Nur mit großer Mühe lassen sich Fehlkäufe, wenn überhaupt, retournieren – vor allem dann, wenn die Herausgeber vorab Review-Embargos verhängen, wie im Fall von “Assassin’s Creed: Unity”, wo erst einen Tag nach Verkaufsstart Kritiken in der Fachpresse erscheinen durften. Auch diese Unart wird für Vorbesteller verschärft: Dass ein vorbestelltes Spiel schwere Mängel hat, ist mit Veröffentlichungstag quasi egal – dann ist der Vorabkauf nicht mehr rückgängig zu machen. Kein Wunder, dass die Kritik an dieser Praxis harsch ausfiel.

Aktuell sorgt die Preorder-Politik des kommenden Multiplayer-Shooters “Evolve” für Stirnrunzeln. Der heiß erwartete Titel der “Left 4 Dead”-Macher bietet nonchalant “exklusiv” für Vorbesteller Inhalte die abwartenden Käufern zunächst vorenthalten und später per DLC-Kauf nachgereicht werden – nur handelt es sich nicht gerade um kosmetische Kleinigkeiten, sondern spielerisch relevante Teile, wie etwa spezielle Spielerklassen oder Monster, die im Basisspiel nicht enthalten sein werden. Bereits Wochen vor Release wirbt auch “Evolve” also bereits mit Zusatzinhalten, die nicht nur “normalen” Käufern ohne Aufzahlung vorenthalten werden, sondern dazu motivieren sollen, schon jetzt die Geldbörse zu zücken. Das freut den Publisher, die Aktionäre und die Verkäufer, ob digital oder klassisch im Fachhandel; für die Spieler selbst aber hat der Vertrauensvorschuss im schlimmsten Fall nur Nachteile. Denn was nützt dem begeisterten Fan die Preorder-Special Edition samt “exklusivem” Avatar-Kostüm, wenn das Spiel ein Totalschaden wie “Aliens: Colonial Marines” ist?

Störfaktor kritische Journalisten

Die Spiele-Branche betreibt eine riesige Hype-Maschine, an der sich jahrelang auch die Spielepresse wenig kritisch beteiligt hat. Im immer absurder werdenden Kampf um enthusiastische Vorabkäufer zeigt sich zunehmend deutlich ein Dilemma: Die Kritik an Spielen, für viele Spieler immer noch essentielle Funktion des Journalismus als Kaufberatung, wird von vielen in der Branche inzwischen vermehrt als Störfaktor wahrgenommen, der mit möglichst großem Rummel und Zusatzzuckerln aus dem Blickfeld gedrängt werden soll. Ben Kuchera von Polygon hat Recht, wenn er nüchtern feststellt, dass Spieler schlicht gar keine Spiele aus purer Gutgläubigkeit und Enthusiasmus vorabbestellen sollten.

Denn eigentlich wäre es recht einfach: Je weniger Spieler sich durch das Bombardment an Hype blenden lassen und blauäugig ihr Geld schon Monate vorab in Richtung Herausgeber werfen, desto schneller würde der Wildwuchs an Vorabzocke reguliert. Wer Spiele vorbestellt, hängt sich freiwillig ans Gängelband der Industrie – und schickt zugleich das Signal, dass die Zerstückelung von Vollpreisspielen in separat zu bezahlende Einzelteile akzeptabel ist.

 

Gelesen auf:

derstandard.at

2330850-blackphone.jpg

Blackphone: Schwerer Fehler in der Messaging-App Silenttext

Blackphone

Über einen schwerwiegenden Fehler in der Messaging-Applikation Silenttext von Silent Circle könnten sich Angreifer Zugriff auf fremde Blackphones verschaffen. Die Sicherheitslücke befindet sich auch in der App für Android.

In der Messaging-App Silenttext auf dem Blackphone ist ein schwerwiegender Fehler entdeckt worden, der es Angreifern erlaubt, Nachrichten zu entschlüsseln und im schlimmsten Fall sich sogar Zugriff auf das gesamte Smartphone zu verschaffen. Der Fehler ist auch in der Silenttext-App für Android vorhanden. Er wurde inzwischen behoben und Updates für das Blackphone und für die App im Play Store stehen bereit.

Bei der Schwachstelle handelt es sich um einen Speicherzugriffsfehler, über den Angreifer beliebigen Code einschleusen können. Dazu muss nur die Silent-Circle-ID beziehungsweise die Telefonnummer des Opfers bekannt sein. Die Lücke lässt sich auch ohne Zutun des Opfers ausnutzen. Zunächst lässt sich der eingeschleuste Code nur im Kontext der App ausführen. Damit können aber ein- und ausgehende Nachrichten entschlüsselt werden, Standortdaten abgegriffen und Kontakte ausgelesen werden. Auch Schreibzugriffe auf den Flashspeicher sind möglich. Außerdem könnten Angreifer Exploit-Code ausführen, der ihnen möglicherweise Root-Rechte auf das Smartphone verschafft.

Datentypenverwechslung

Die Sicherheitslücke lässt sich durch eine manipulierte Nachricht auslösen, die über das von Silent Circle verwendete Instant Messaging Protocol (SCIMP) versendet wird. Durch einen Fehler in der Bibliothek Libscimp können Angreifer den integrierten JSON-Parser YAJL (Yet Another JSON Parser) nutzen, um eigenen Code in den Arbeitsspeicher einzuschleusen. Dabei lässt sich eine sogenannte Type-Confusion-Lücke ausnutzen, bei der der Parser zwei verschiedene Datentypen verwechselt. Dadurch lässt sich unerlaubt auf Speicherbereiche zugreifen.

Eine detaillierte Beschreibung der Lücke hat der Datenexperte Mark Dowd in seinem Blog veröffentlicht. Er hatte den Fehler entdeckt und zuvor Silent Circle darüber informiert.

 

Erstmals erschienen auf:

http://www.golem.de/news/

Internetkonferenz DLD: Samwer fordert Start-ups zu Börsengängen auf

Rocket-Internet-Chef Oliver Samwer hofft auf eine Signalwirkung des Börsengangs seiner Start-up-Schmiede Rocket Internet für die europäische Online-Wirtschaft. “Das ist gut für Europa. Je mehr Unternehmen an die Börse gehen, umso mehr kann man diesen europäischen Traum haben”, sagte Samwer auf der Internetkonferenz Digital-Life-Design (DLD) in München. “Die wichtigste Erfahrung des Börsengangs war: Es ist machbar.” Das sollte anderen Unternehmen Mut machen.

Rocket Internet hatte bei dem Börsengang in Frankfurt im Oktober über 1,4 Milliarden Euro eingenommen. Die Aktie war zunächst unter den Ausgabepreis gestürzt, erholte sich inzwischen aber.

Der Marktwert des Unternehmens liegt über 6,5 Milliarden Euro. Rocket Internet entwickelt weltweit junge Unternehmen vor allem im Bereich des Online-Handels.

Die Idee von Samwer und seiner Brüder Marc und Alexander ist, den Gründungsprozess mithilfe einer einheitlichen Plattform aufs Fließband zu stellen. “Die Sache mit den verschiedenen Kulturen in einzelnen Ländern wird überbewertet: E-Commerce funktioniert überall”, sagte Samwer. Aktuell arbeiten rund 50 Firmen unter dem Rocket-Dach. Sie schreiben bisher quer durch die Bank Verluste.

Rocket-Eintritt in USA möglich

Fragen zur künftigen Strategie wich Samwer unter Hinweis auf die Mitteilungspflichten bei einem börsennotierten Unternehmen aus. Einen groß angelegten Markteintritt in den USA schloss er allerdings nicht aus.

 

“Wir greifen nicht an. Wir könnten freundlich Amerika betreten. Nichts ist unmöglich”, sagte er auf die Frage nach Plänen für einen Angriff auf die Konkurrenz in den USA. Bisher sind nur einige wenige Rocket-Start-ups in den USA aktiv.

Zugleich machte Samwer keinen Hehl daraus, dass er seine Start-ups dynamischer als die etablierten Internetkonzerne aus den USA findet. “Bei Google haben Sie eine Cafeteria mit Gratis-Getränken und Sushi – bei uns können Sie Unternehmen aufbauen”, beschrieb er die Perspektive für Neueinsteiger.

Samwer wehrt sich gegen Kopier-Vorwürfe

Im Silicon Valley wird Rocket Internet oft vorgeworfen, Geschäftsideen aus den USA zu kopieren. Samwer kontert, die Herausforderung sei vor allem die Umsetzung einer Idee.

Der 42-jährige Samwer machte bei seinem Auftritt insgesamt seinem Ruf eines aggressiven und ungeduldigen Managers alle Ehre. “Wir sind sehr hungrig”, beschrieb er Rocket Internet. “Es ist egal, wie gut jemand gestern war, wenn der Hospitant heute besser ist.”

Er selbst arbeite so viel wie nötig – und schlafe am liebsten in Flugzeugen, um Zeit zu sparen. Die Börsengänge von Rocket und des Modehändlers Zalando haben die Samwer-Brüder offiziell zu Milliardären gemacht.

 

Zur Internetseite:

www.welt.de/wirtschaft

Audiostreaming: Google attackiert Airplay mit Google Cast for Audio

 

Audiostreaming

Nach dem Erfolg mit Chromecast will Google auch im Audiobereich Apple Konkurrenz machen. Mit dem System Google Cast for Audio und einflussreichen Partnern könnte das gelingen – wenn nur Spotify nicht fehlen würde.

Mit Google Cast for Audio hat Google eine Alternative zu Apples Airplay vorgestellt. Damit wird ein System bezeichnet, mit dem Audio-Inhalte zu Lautsprechern und Receivern kabellos übermittelt werden können. Google Cast erlaubt es dem Anwender, Musik und andere Toninhalte von einer Reihe von Apps wie Rdio, Pandora, NPR One, Google Play Music zu Google-Cast-fähigen Lautsprechern, Soundbars und Receivern zu streamen. Auf der Liste der Partner fehlt allerdings ausgerechnet der größte Audiostreaming-Anbieter: Spotify macht bei Google Cast nicht mit – zumindest vorerst.

Um den Audiostream zu übermitteln, muss der Anwender nur in einer der unterstützten Apps für Android, iOS oder im Web den Cast-Knopf drücken und die entsprechenden Lautsprecher auswählen, die zum Beispiel Sony, LG und Denon bauen wollen. Weitere Anbieter werden sicherlich folgen, sollte das System ein Erfolg werden.

Die Audiodaten werden dann über die Cloud übertragen – und nicht etwa vom Smartphone oder Tablet des Nutzers aus. Das solle die Tonqualität erhöhen und den Akku schonen, schreibt Google in einem Blogposting. Dazu benötigen die Wiedergabegeräte natürlich einen Internetanschluss. Die ersten Cast-fähigen Lautsprecher sollen noch 2015 veröffentlicht werden, während Google Cast selbst im Frühjahr zunächst in den USA starten wird.

Mit Airplay besitzt Apple bereits seit Jahren ein System, mit dem Lautsprecher direkt vom Rechner oder Smartphone beziehungsweise Tablet aus mit Musik drahtlos versorgt werden können. Sony und Denon unterstützen aufgrund der Konkurrenzsituation deshalb bei neuen Geräten auch gleich Google Cast und Apples Airplay.

Wann Google Cast Audio in Deutschland auf den Markt kommen wird, ist noch unbekannt.

 

Übernommen aus:

http://www.golem.de/news/

Viele Nutzer sind letztlich mit der Computertechnik überfordert

In unserem digitalen Zeitalter kommt es mir manchmal so vor, dass die Menschen nicht mehr mit dem Fortschritt mithalten können. Viele Nutzer von elektronischen Hilfsmitteln kennen viele Funktionen nicht oder können sie nicht bedienen. Umfragen haben ergeben, dass eine große Mehrheit von Fahrern neuerer Autos nicht mal die Hälfte der Gimmicks und Features ihres Wagens kennen, ähnlich ist bei Smartphones, Tablets und Computer. Jeder hat solche Geräte und freut sich über die Möglichkeiten, die moderne Kommunikation bietet. Aber wehe, wenn irgendetwas nicht funktioniert. Dann sind viele schnell überfordert. Es geht schon los, wenn der Rechner den Drucker nicht mehr findet oder die Wlan-Verbindung abbricht. Noch schlimmer ist es natürlich, wenn der Computer nicht mehr startet bzw. Windows mit einer Fehlermeldung beim Starten stehen bleibt. Die Einen versuchen dann verzweifelt, den Computer irgendwie wieder zum Laufen zu bringen, kämpfen sich mit einem anderen internetfähigen Gerät durch diverse Hilfeforen und machen im Zweifelsfall alles noch schlimmer. Die Anderen versuchen, sich Hilfe bei Bekannten zu holen, die angeblich Ahnung vom Computer haben. Dies kann aber auch zur Folge haben, dass der Bekannte ohne böse Absichten auch nicht weiter kommt und möglicherweise aufgibt und der Rechner überhaupt nicht mehr zu benutzen ist. Bei einem Abendessen mit Freunden kamen wir auf das Thema, weil es ja wirklich jeden angeht. Hierbei kam heraus, dass die Mehrheit am Tisch nach langem Leidensweg und großen Zeitverlusten bei der vergeblichen Reparatur ihres PC’s auf einen professionellen PC Service zurückgegriffen haben. Es hat sich einfach die Erkenntnis durchgesetzt, dass die Kosten für einen IT-Service mehr als angemessen sind, wenn man sich dafür die Zeit und die Mühsal erspart, sich mit Problemen beschäftigen zu müssen, auf die man gar keine Lust hat. Bei dieser Diskussion wurde auch uns ein Computerservice empfohlen, der sowohl die Einrichtung eines neuen PC’s als auch die Reparatur bzw. Wiederherstellung durchführen kann. Natürlich sind darüber hinaus auch Installationen von Druckern und Geräten sowie auch Einrichtung des Internet-Zuganges und des Wlans möglich. Falls es mal zum Schlimmsten kommen sollte, nämlich ein Datenverlust, wird hierfür eine Datenrettung von Festplatte, USB-Stick oder SD-Card angeboten. Wenn man so einen IT-Spezialisten hat, den man zwischendurch für eine kurze Frage auch anrufen kann, hat man ein wesentlich besseres Gefühl beim Arbeiten mit diesen Geräten. Egal, ob Laptop, Notebook oder Desktop-PC, suchen Sie sich einen zuverlässigen Anbieter von IT-Dienstleistungen oder noch besser, lassen Sie sich jemanden empfehlen. Dann haben Sie zumindest in dieser Beziehung eine Sorge weniger.

PC-Gaming: Windows 10 soll von Xbox One-Technik profitieren

Microsofts Xbox- und Gaming-Chef Phil Spencer wird nächste Woche Teil der (wohl endgültigen) Vorstellung von Windows 10 sein. Dabei wird er sich ausführlich zum Thema PC-Gaming äußern, außerdem kündigte Spencer Neues zum mobilen Spielen an. Beide Bereiche sollen von der Xbox Oneprofitieren, wie verriet er allerdings noch nicht.

Bei der Video-“Neujahrsansprache” von Microsofts oberstem Gamer Phil Spencer sprach der Chef der Microsoft Gaming Studios über die Pläne des Redmonder Unternehmens für 2015. Dabei gab es den üblichen Verweis auf viele interessante neue Veröffentlichungen sowie unter anderem die kommende Xbox-One-Funktionalität zum Aufnehmen von Screenshots.

Gegen Ende des Videos machte Spencer aber einige interessante Andeutungen zum Windows-10-Event am Mittwoch nächster Woche: Spencer beteuerte zunächst einmal, dass man sich nach wie vor der Konsole verpflichte, man aber bei Microsoft wisse, dass “wir Fans und Gamer haben, die auch auf dem PC sowie dem Smartphone spielen”.
Es sei “wichtig”, so Spencer, dass man die “Features, die wir auf Basis der Arbeit an der Konsole gelernt haben, ausbauen und Windows 10 zu unserem besten Betriebssystem für PC-Spieler machen”. Was das in der Praxis bedeutet, darüber kann man vorerst nur spekulieren.

Die wahrscheinlichste Erklärung ist wohl eine Art Gaming-Ableger der jüngsten über “Unified Apps” vereinheitlichten Entwicklung für das stationäre sowie mobile Windows 10. Allerdings hat Microsoft bereits mit Windows 8 (wenig erfolgreich) versucht, Spiele-Apps über bzw. in den Windows Store zu platzieren.

Spencer hat zudem bereits mehrfach in Vergangenheit über “echtes” PC-Gaming gesprochen und betont, dass man diese Spieler nicht vergessen habe. Bisher hat es dazu aber noch keine wirklich signifikante Ankündigung gegeben, diese folgt dann hoffentlich Mitte nächster Woche.

 

 

Originalbeitrag:

winfuture.de

TV-Zukunft – Warum Sie noch keinen 4K-Fernseher kaufen sollten

Mit allerlei Neuerungen versuchen Fernseher-Hersteller schon seit geraumer Zeit, den trudelnden Markt für TV-Geräte wieder in Schwung zu kriegen. Der Fortschritt der Technik war auch auf der CES in Las Vegas kaum zu übersehen. Groß, gebogen und hochauflösend sind das Motto für Flimmerkisten des Jahres 2015.

Immer mehr springen dabei auf den UltraHD-Zug auf und bieten Geräte mit Auflösungen von 3.840 x 2.160 Pixel und mehr, auch angepriesen als “4K”. Darin liegt auch zweifelsohne die Zukunft. Doch Konsumenten sollten mit dem Kauf eines solchen Fernsehers noch zuwarten, denn im Hintergrund des Marktgeschehens kämpfen Hersteller und Contentanbieter noch um Inhalte, wie Wired erklärt.

Streaminginhalte im Fokus

Die jetzige Entwicklung unterscheidet sich dabei von früheren Wettrennen wie etwa jenem zwischen Betamax und VHS oder der Blu-ray und der HD-DVD. Denn da ging es um Medien, die sich mit einem Wiedergabegerät an beliebigen Fernsehern abspielen lassen. Entschieden wird die Zukunft aber nicht durch Speichermedien, bestimmte Kabelanschlüsse oder herkömmliche Fernsehstandards.

Der Schritt von Full HD auf 4K markiert den Wechsel zur ersten TV-Generation, bei der Streaminginhalte wichtiger sein werden als traditionelle Formen der Contentauslieferung. Doch ob man seine Lieblingsinhalte auch in dieser Auflösung ansehen kann, wird davon abhängen, ob das eigene Gerät auf Anbieter zugreifen kann, welche sie in dieser Qualität auch anbieten. Denn leistbare Streamingboxen mit UltraHD-Support und breiter Unterstützung von Netflix und anderen Video-on-Demand-Anbietern gibt es noch nicht.

Viele Hersteller, unterschiedlicher Content

Stattdessen zeigte sich auf der CES eine sehr heterogene Entwicklung. TCL will mit Roku kooperieren und künftig Fernseher bauen, die einen Erwerb von dessen Streamingbox überflüssig machen. Auch andere Produzenten arbeiten erst daran, zusätzliche Streaminggeräte möglichst überflüssig zu machen. Das Satelliten-TV-Netzwerk Dish wiederum wird 4K-Abos ab 30 Dollar pro Monat anbieten, die wiederum eine DVR-Box des Herstellers Hopper voraussetzt.

Zusätzlich erschwert wird die Auswahl der Konsumenten durch Exklusivvereinbarungen. So ermöglichen manche 4K-TVs den Zugriff auf Netflix und Amazon Instant Video, andere wiederum unterstützen nur einen der beiden oder konkurrenzierende Streamingdienste. M-Go und Comcast bieten ihre Apps in den USA derzeit nur auf Samsung-Fernsehern an. Sonys relativ umfangreiche Sammlung an 4K-Inhalten steht wiederum nur auf seinen eigenen Fernsehern bereit und verlangt die Anschaffung eines zusätzlichen Players für 700 Dollar.

Codecs und Services

Auch auf technischer Seite fehlt es noch an einer gemeinsamen Basis, was Kompatibilitätsprobleme nach sich ziehen kann. Google pusht zum Beispiel den VP9-Codec für UHD-Content, Netflix und Amazon setzen auf H.265. Doch selbst wenn ein Fernseher, wie die meisten aktuellen Geräte, beide unterstützt, heißt das nicht, dass auch alle darauf basierenden Dienste einwandfrei funktionieren. Dazu rittern diverse Betriebssysteme – von Android TV über Firefox OS bis hin zu proprietären Lösungen der Hersteller – um die Vorherrschaft im Wohnzimmer.

Wired empfiehlt daher, mit der Anschaffung eines 4K-Fernsehers noch zumindest ein paar Monate zu warten. In absehbarer Zeit dürften technische Kinderkrankheiten des beginnenden UHD-Zeitalters ausgemerzt sein. Dazu sollte nicht nur das Angebot an hochauflösenden Inhalten insgesamt wachsen, sondern auch mehr plattform-agnostische Dienste verfügbar werden, die nicht mehr ein bestimmtes Endgerät bzw. ein TV-Gerät eines bestimmten Herstellers voraussetzen.

Herausforderung für Telekommunikationsbranche

Gleichzeitig stellt 4K auch eine Herausforderung für die Telekommunikationsbranche dar. Populäre Streaminganbieter wie Netflix sorgen bereits heute mit 1080p-Inhalten für hohe Mengen an Traffic. Trotz aller Kniffe bei der Videokomprimierung erzeugen UltraHD-Videos dank der im Vergleich vierfachen Menge von Pixeln am Bildschirm nochmals deutlich mehr Last.

Außerdem ist die Voraussetzung auf Seiten des Endkunden ein Internetanschluss mit hoher Bandbreite, will man die Inhalte zügig und in guter Qualität genießen. Laut einem Report von Akamai sind aktuell nur 19 Prozent aller US-Haushalte “4K-ready”, surfen also mit einer Geschwindigkeit von 15 Megabit pro Sekunde oder mehr im Netz.

Günstige Preise für Full HD-Fernseher erwartet

Weil die Hersteller sich künftig fast ausschließlich auf die Verbreitung und Bewerbung von 4K kümmern werden, so Wired weiter, könnte sich dafür bald die Chance auf ein günstiges letztes Upgrade im Full-HD-Segment bieten.

Weil allerlei neue Funktionen und Technologien den kommenden Highend-UHD-Geräten vorbehalten bleiben, könnten hochwertige HD-Fernseher samt Unterstützung für diverse Streaminganbieter bald erheblich billiger werden. (gpi, derStandard.at, 14.01.2015)

 

Link zur Homepage:

http://derstandard.at/2000010376913

Prognosen – Was uns im Tech-Jahr 2015 erwartet

Das Jahr 2014 liegt hinter uns. Die vergangenen 365 Tage waren auch in der IT-Welt bewegt. Es gab neue und spannende Produkte – von großen Herstellern wie Samsung und Apple bis hin zu Newcomern wie dem chinesischen Start-up OnePlus -, große Übernahmen und neue Services, die sich am Markt etabliert haben.

2015 dürfte aber nicht minder interessant werden. Der WebStandard wagt einen Blick in die USB-Kristallkugel.

 

Smartphones

Schon länger klagen Konsumenten darüber, dass sich bei Mobiltelefonen in puncto Innovation kaum noch etwas tut. Etwas bessere Bildschirme, ein wenig aufgewertete Kameras, ein Quäntchen mehr Leistung. Dementsprechend schwer zu rechtfertigen sind die Premiumpreise für so manche Highend-Smartphones, wenn selbst ihre Vorvorgänger mit den meisten Aufgaben noch problemlos klar kommen.

Das Hardware-Wettrüsten wird auch 2015 nicht aufhören. Mehr und mehr Smartphones werden 2K-Displays bieten und die Auflösungen der Kameras werden von vielen Herstellern in den Bereich von 16 bis 20 Megapixel gesteigert.

Aber es gibt Anzeichen, dass sich noch mehr bewegt. Längere Akkulaufzeit, die im Gegensatz zu ultrahohen Displayauflösungen einen tatsächlichen Mehrwert bieten, sind schon 2014 in den Fokus der Hersteller gerückt. Viele Flaggschiffe warben auch mit einem softwareseitigen Energiesparmodus, um aus der Restladung der Batterie möglichst lange Betriebsdauer herausholen zu können.

Technologien wie DRAM und sparsamere Prozessoren werden auch auf Seiten der Hardware 2015 zu weiteren Verbesserungen führen. Während man auf derzeit in Entwicklung befindliche, vielversprechende neue Akku-Technologien wohl noch das eine oder andere Jahr warten muss, rechnen wir mit der Vorstellung der ersten Smartphones, die mit üblichen Batteriekapazitäten bei normaler Nutzung zwei Tage lang durchhalten, statt jeden Abend an die Steckdose zu müssen.

Ebenfalls für 2015 zu erwarten: Mehr Highend-Smartphones zu Mittelklassepreisen. Was etwa das OnePlus One vorgemacht hat, werden wohl auch andere Hersteller wagen – zumal Googles Nexus-Reihe nun deutlich teurer geworden ist und Platz in diesem Segment schafft. Dazu könnte auch der eine oder andere chinesische Hersteller in den Markt drängen und auch kleine Marken wie Wiko befinden sich dank erschwinglicher Preise am aufsteigenden Ast.

 

Mobile Computing

Die letzten Jahre brachten den Aufstieg und Fall der Subnotebooks (auch Netbooks genannt). Erfreuten sie sich zuerst aufgrund ihrer Kompaktheit hoher Beliebtheit, boten alsbald Tablets eine noch transportablere Lösung, ohne die Nutzer hinsichtlich ihrer Verwendungsmöglichkeiten zu sehr zu limitieren.

Nun stehen die kleinen Laptops in ihrer nächsten Evolutionsstufe an der Schwelle, sich einen Fixplatz am Computermarkt zu erobern. 2015 könnte das Jahr der Convertibles werden, zumindest sind die Weichen dafür gestellt.

Einerseits liefert Intel mittlerweile Chips auf Basis normaler x86-Architektur, die den Bau kleiner, sparsamer Geräte ermöglichen, die ihren Nutzern die Erledigung einfacher Arbeiten und den Genuß von Multimedia-Inhalten erlauben, andererseits hat Microsoft mit “Windows 8.1 mit Bing” sein Lizenzmodell so geändert, dass sich die Verwendung des Betriebssystems den Preis des Endgeräts nicht mehr merklich belastet.

Als Resultat dessen findet man nunmehr Netbooks mit drehbaren Displays und intelligente Kombinationen aus Tastaturdock und Tablet für wenige hundert Euro am Markt. Die ersten Generationen der Convertibles waren nicht nur an Hardware-Defiziten, sondern auch an hohen Preisen gescheitert.

 

Fernseher

Nicht die besten Zeiten stehen wohl den Herstellern von TV-Geräten bevor. Features wie 3D-Wiedergabe oder Auflösungen jenseits des Full-HD haben die Konsumenten weitestgehend kalt gelassen. Daran werden auch OLED-Displays und gekrümmte Bildschirme nicht viel zu ändern vermögen.

Denn einerseits müssen die Produzenten der Kundschaft die Vorteile der neuen Technologien erst schmackhaft machen und andererseits sprechen die Preise für die Geräte aktuell noch nicht den Massenmarkt an. Dementsprechend sind es Early Adopter, die dieses Geschäft vorläufig stützen müssen.

Auch 2K- und 4K-Auflösung taugt derzeit noch nicht als überzeugendes Kaufargument. Der visuelle Fortschritt ist zwar evident, doch es fehlt immer noch inhaltlicher Vielfalt in entsprechender Qualität. Immerhin: Zumindest im 2K-Bereich dürfte sich das 2015 merklich bessern.

 

Wearables

Nach Pionierarbeit in den vorhergehenden Jahren, vor allem durch die “Pebble”, haben Smartwatches 2014 einen ersten kleinen Schritt in Richtung Massenmarkt gesetzt. 2015 wird für die Begleiter am Handgelenk wohl ein entscheidendes Jahr.

Bald wird Apple mit der “Watch” erstmals auf diesen Markt vorstoßen. Der Konzern aus Cupertino, der über eine treue Anhängerschaft verfügt, bewirbt seine Smartwatch aber nicht nur als Elektronikprodukt. Man buhlt auch um Aufmerksamkeit in der Mode- und Lifestyleszene. Der Erfolg oder Misserfolg der Watch wird auch anderen Herstellern erste Einschätzungen ermöglichen, ob Smartwatches das Potenzial haben, mehr als ein reines Nischenprodukt zu werden.

Dafür spielt freilich auch der technische Fortschritt eine Rolle. 2015 werden Plattformen wie Android Wear weiter reifen und und Funktionalität zulegen. Gleichzeitig werden die Hersteller nach besseren Kompromissen zwischen Handlichkeit, Design und Akkulaufzeit suchen, zumal die aktuelle Generation vor allem in letzterem Punkt noch Luft nach oben hat. Wer mit dem Gedanken spielt, sich eine smarte Uhr zuzulegen, sollte sich noch in Geduld üben.

Abgesehen von Experimenten ist im Wearable-Bereich sonst keine Revolution zu erwarten, wenngleich Überraschungen nie ausgeschlossen werden können. Die nach ihrer Enthüllung lange Zeit gehypte Datenbrille Google Glass hat jedenfalls eine ungewisse Zukunft vor sich. Mit einer Consumer-Version ist – wenn überhaupt – wohl 2015 nicht zu rechnen.

 

Virtual Reality

Neben neuem Spielefutter ist die bedeutendste Entwicklung für Spielefreunde im neuen Jahr wohl der Aufbruch ins Virtual Reality-Zeitalter. Laut Chef von Oculus VR Brendan Iribe soll die aktuelle Entwicklerversion der Oculus Rift-Brille schon weitestgehend jener Version entsprechen, die man als erste finale Ausgabe auf den Markt bringen. Einen genauen Termin für den Release gibt es zwar noch nicht, aber eine ungefähre Preisangabe von 400 Dollar. Ein Marktstart 2015 ist wohl als sehr wahrscheinlich anzunehmen.

Die erste Consumer-Version wird hauptsächlich experimentierfreudige Spieler anziehen, denn noch gibt es nur wenige zugkräftige Games, die das VR-Gerät offiziell unterstützen oder unterstützen werden. Bis zum erreichen der von Oculus-Eigentümer Facebook definierten, kritischen Masse von 100 Millionen Nutzern werden noch einige Lenze ins Land ziehen.

Auf dem Pfad in tiefere Spiele-Immersion wandeln neben Oculus aber auch einige kleinere Firmen, zum Beispiel VRVana mit Totem VR, aber auch Branchenriesen. Sonys “Project Morpheus” wird ebenso für 2015 erwartet wie eine noch unbenannte Brille von Microsoft.

Mit einer für den mobilen Bereich ausgelegten Lösung vorgeprescht ist bereits Samsung. Die in den USA mittlerweile käuflich erwerbbare Gear VR – an deren Entwicklung Oculus beteiligt war – richtet sich aber noch an Entwickler und weniger an Endkunden. Es wäre nicht überraschend, wenn noch in diesem Jahr eine zweite Generation folgt.

Ein Massenphänomen wird die Technologie aber trotz aller Ambitionen noch nicht werden. Jedoch wird die Grundlage dafür gelegt, bald die Kinderschuhe auszuziehen und noch in diesem Jahrzehnt eine neue Art des Spielens und Kommunizierens zu etablieren.

Ihre Prognosen?

 

Das Tech-Jahr 2015 wird freilich noch viel mehr Facetten zeigen, als hier angesprochen. Und wer Prognosen wagt, kann sich natürlich auch irren, ist der Wandel in der Branche doch bekanntlich ein schneller.

Was erwarten oder erhoffen Sie sich in Sachen IT-Welt von jenem Kalenderabschnitt, der die Halbzeit dieses Jahrzehnts einläutet? (Georg Pichler, derStandard.at, 01.01.2015)

zum Artikel:

derstandard.at/2000009913665/

Werbeterror zum Jahreswechsel – Neue Nutzungsbedingungen auf Facebook – Wer sich einloggt, stimmt zu

Kaufen direkt auf Facebook

Die Änderungen, die ab dem 01.Januar 2015 in Kraft treten, betreffen die Nutzungsbedingungen, die Datenrichtlinie und die Cookies-Richtlinie. „Um neuen, von uns erarbeiteten Funktionen Rechnung zu tragen und diese Dokumente leicht verständlich zu machen“,  heißt es auf der Facebook-Seite. „Leichter und verständlicher“ dürfte die Datenrichtlinie in erster Linie deshalb werden, weil einige Punkte zur Kontoeinstellung in den Leitfaden „Grundlagen zum Datenschutz“ verschoben wurden. Die Änderungen ermöglichen unter anderem die Einführung eines neuen „Kaufen“-Buttons, der derzeit in der Testphase ist und es dem Nutzer ermöglichen soll, Produkte zu kaufen, ohne dabei das soziale Netzwerk zu verlassen.

Neue Facebook-Funktionen ab 2015:

Auf den Nutzer zugeschnittene Werbung

Zukünftig wird auch das Surfverhalten der Nutzer analysiert, um eine auf den Nutzer zugeschnittene Werbung anbieten zu können. Dabei greift das Netzwerk auf die vom Nutzer verwendeten Apps und besuchten Webseiten zurück, um ein detailliertes Profil über dessen Konsumverhalten und Interessen zu erstellen. Klingt heikel und ist es auch. Facebook verpackt es positiv und spricht in der offiziellen Information von einer „Verbesserung der Werbeanzeigen“ und einer „Kontrollmöglichkeit“.

Dadurch wird der Nutzer noch gläserner als vorher: Stöbert man beispielsweise im Internet nach einer neuen Kaffeemaschine oder einem Smartphone, könnte ihm Facebook eine entsprechende Anzeige auf Facebook präsentieren. Möglich wird diese personalisierte Werbebeschallung durch Cookies. Diese lassen sich zwar im Browser deaktivieren. Das hat aber zur Folge, dass einige Seiten nicht mehr korrekt angezeigt werden.

Fünf Tipps für den perfekten Facebook-Auftritt:

Was passiert mit meinen Daten?

Facebook sammelt riesige Datenmengen über das Surfverhalten und die Vorlieben seiner Nutzer. Wir liken schließlich auch wie die Weltmeister. Diese Informationen gibt Facebook an Unternehmen weiter, die uns entsprechende Werbung anbieten. Allerdings teilt Facebook keine personifizierten Daten wie E-Mail-Adressen ohne Zustimmung des Users.

Was kann ich gegen Werbung auf Facebook tun?

Komplett ausblenden können Nutzer die Werbung nicht. Schließlich finanziert sich Facebook über diese Anzeigen. Dennoch ist man nicht völlig hilflos: User können sich zum Beispiel anzeigen lassen, warum ihm ausgerechnet diese spezielle Werbung angezeigt und welcher Zielgruppe sie zugeordnet wurde. Über einen Button lässt sie sich zudem deaktivieren. Allerdings kann es sein, dass einem diese Anzeige erneut entgegenlacht, wenn der Anbieter seine Zielgruppe ändert. Auch sollten sich User gut überlegen, welche Unternehmen sie auf Facebook liken möchten. Je weniger Informationen ein Nutzer über sich und seinen Konsum preisgibt, desto schwieriger wird es für Facebook, diesen zu umwerben.

So macht Facebook Millionen mit mobiler Werbung:

Kann ich die Werbung nicht einfach abschalten?

Das geht leider nicht, allerdings kann ich die personifizierten Werbeanzeigen deaktivieren, die Facebook aufgrund der Nutzung anderer auf meinem Smartphone installierter Apps und meinem Surfverhalten sammelt. Das geht allerdings nicht auf Facebook selbst, sondern in Europa über die Plattform youronlinechoices.eu.

 

Übernommen aus:

http://www.focus.de

Rocket Kitten: Die Geschichte einer Malware-Analyse

Rocket Kitten

Mit der Analyse von Malware für eine großflächige Spearphising-Attacke konnten Datenexperten die Angreifer enttarnen. In detektivischer Kleinarbeit haben sie dabei ausgefeilte Komponenten aufgedeckt und ein Land hinter dem Angriff ausgemacht.

Wer steckt hinter Malware-Angriffen? Diese Frage beschäftigt IT-Sicherheitsexperten, insbesondere dann, wenn sie Regierungen dahinter vermuten. Wie schwierig eine eindeutige Schuldzuweisung ist, zeigt auch der aktuelle Hack auf die IT-Infrastruktur von Sony Pictures. Obwohl die US-Bundespolizei eindeutig Nordkorea als Urheber nennt, bleiben Zweifel. Zwei Datenexperten konnten in einem anderen Angriff jedoch einen Schuldigen ausmachen, auch weil sich dieser ziemlich ungeschickt anstellte. Ihre Geschichte erzählten sie auf dem 31C3.

Es begann mit einem Anruf im April 2014. Unbekannte hatten mit einer Spearphishing-Attacke versucht, einer zivilen Organisation Malware unterzujubeln. Deren Büros befinden sich direkt neben einem israelischen Luft- und Raumfahrtunternehmen. Die Datenexperten Gadi Evron und Tillmann Werner wollten zunächst wissen, ob es sich um einen großflächigen Cyber-Angriff handelte, einen sogenannten Advanced Persistent Threat (APT).

Angriff per Excel-Makro

Sicher sei das zunächst nicht gewesen, sagten die IT-Sicherheitsexperten. Denn die Spearphishing-Attacke erfolgte über eine präparierte Excel-Tabelle. Die Malware war dort als Makro eingebettet. Nutzer hätten also zunächst den Anhang der E-Mail öffnen und anschließend auch das Makro per Mausklick starten müssen, damit die Malware installiert wird. Solche Angriffe waren vor zehn Jahren die Regel, als die Standardeinstellungen Makros noch automatisch starteten. Heutzutage gelten sie als veraltet. Allerdings nehmen Antivirenhersteller veraltete Malware oftmals aus ihren Signaturdatenbanken. Inzwischen steigt die Zahl der Angriffe mit fast vergessenen Trojaner wieder.

Die Angreifer hätten die E-Mail teilweise mehrfach geschickt, etwa mit dem Zusatz: “Entschuldige, ich habe den Anhang in der letzten E-Mail vergessen.” Mit solchen wiederholten E-Mails steigt die Wahrscheinlichkeit, dass ein Opfer den Anhang doch irgendwann öffnet.

Offizielle Dokumente als Köder

Der Köder war eine Excel-Tabelle und enthielt eine Kontaktliste hochrangiger Militärmitarbeiter aus aller Welt mit teils persönlichen Daten. Der erste Eintrag war der eines ägyptischen Armeeangehörigen, was in Israel durchaus interessant sein dürfte. Die Liste trug den Briefkopf eines österreichischen Ministeriums und war auf Deutsch verfasst. Um weitere Einträge der Liste einzusehen, sollte das Opfer eine weitere Tabelle öffnen. Erst dann würde sich die eigentliche Malware installieren. Dieser Köder sei ein erster Hinweis auf einen staatlich gelenkten Angriff gewesen, sagten die beiden Datenexperten.

In der Excel-Tabelle entdeckten die Datenexperten dessen Ersteller, der mit dem Namen Woll3n.H4t eingetragen war. Auch das Erstellungsdatum der Tabelle konnten sie auslesen. Mit diesen Informationen forschten die IT-Sicherheitsexperten zunächst, ob bereits andere Phishing-Angriffe mit dem Namen bekannt waren.

Malware aus Argentinien?

Die Datenexperten analysierten den sogenannten Payload, der durch das eingebettete Makro aufgerufen wird. Es handelte sich um eine PE-Binärdatei, die die Experten mit dem Disassembler Idapro analysierten. Zunächst entdeckten sie einen Pfad für Debug-Dateien. Außerdem fiel ihnen auf, dass in dem Debug-Code die Länderkennung von Argentinien eingebettet war. Das verwirrte die Experten zunächst, denn ein Angriff aus Argentinien auf Israel konnten sie sich nicht vorstellen.

Der Code der Malware sei von hoher Qualität, sagten die Experten. Es sei Position-independent Code, er kann also unabhängig von der Position im Speicher ausgeführt werden. Konstanten werden nicht direkt, sondern über Lookup-Tables aufgerufen, etwa Netzwerk-Sockets. Dadurch lässt sich der Code leichter auf verschiedene Plattformen und Betriebssysteme portieren. Ungewöhnlich sei auch, dass das Hashing für die Sitzungsverwaltung mit Blowfish realisiert wird. Auch die APIs werden durch Wrapper bereitgestellt. Und es gab einen Proxy für den Aufruf von generischen APIs.

Malware mit geklautem Programm

Eine Suche bei Google ergab eine Übereinstimmung mit einem Syscall Proxy des Unternehmens Core Security, das die Datenexperten als “eines der guten” bezeichnet. Das US-Unternehmen hat ein Büro in Argentinien und sein Syscall Poxy verwendet nach eigenen Angaben Blowfish für internes Hashing.

Core Security hat auf Anfrage jegliche Zusammenarbeit mit Militär und Geheimdiensten abgestritten, was die beiden Experten bestätigen. Jemand habe ein “gutes Werkzeug gestohlen und böses damit gemacht”, sagten Evron und Werner. Die Auswahl der Werkzeuge zeige, dass es sich um einen hochentwickelten Angriff handele, ein Hinweis auf einen Angriff im Auftrag und mit Unterstützung einer Regierung.

Syscall-Proxy für die Steuerung aus der Ferne

Das Besondere an Syscall Proxys ist, dass sie auf dem einen Rechner nur eine winzige ausführbare Datei installieren. Auf einem anderen wird die Steuerung ausgeführt. Mit Syscall Proxys können so fast beliebige Werkzeuge verwendet werden, ohne dass sie auf dem angegriffenen Rechner installiert werden müssen: Sie werden auf den entfernten Rechnern gestartet, die Befehle werden dort in entsprechende Systemaufrufe umgewandelt und auf dem Zielrechner ausgeführt. Die Rückmeldungen werden wieder an den angreifenden Computer zurückgeschickt. Über ein eigenes Protokoll, ähnlich wie Remote Procedure Call (RPC), wird die Kommunikation abgewickelt. Es sei wie die Auslagerung des User-Space auf andere Rechner, erklärten die Datenexperten. Es könnten auch mehrere Rechner gleichzeitig die Steuerung übernehmen.

Im Code der Malware entdeckten sie mehrere IP-Adressen. Die führten zu einem deutschen Provider, der auch Satellitendienste anbietet. Eine Abfrage der Geoposition der IP-Adressen platzierte sie am Äquator mitten im Atlantischen Ozean. Es handele sich vermutlich um Proxy-Adressen, sagten die Experten. Die für die verschlüsselte Kommunikation verwendeten Zertifikate stammten vom inzwischen als unschuldig eingestuften Core Security. Die Spur führte also ins Leere.

Rocket Kitten wird zum großflächigen Angriff

Dann widmeten sich die Experten erneut den für die Phishing-Angriffe verwendeten Excel-Tabellen, denn inzwischen stellte sich heraus, dass die Malware bereits an mehrere Objekte in Israel und in Ländern der EU versendet wurde. Der letzte Angriff datierte vom Oktober 2014. Das interessanteste Dokument sei die eingangs erwähnte Kontaktliste mit Militärmitarbeitern, so die Vortragenden. Andere enthielten Telefonnummern von öffentlichen Einrichtungen in Israel oder einer Liste aller Botschaften in Berlin. Inzwischen sei der Angriff als APT eingestuft worden und habe den Namen Rocket Kitten erhalten.

Ein weiteres Dokument fiel den Datenexperten besonders auf: Es handelte sich um ein Informationsblatt zu einem geplanten deutsch-israelischen Treffen im Februar 2015, an dem auch die Bundesministerin für Bildung und Forschung Johanna Wanka teilnehmen wird, ebenfalls in perfektem Deutsch und vermutlich gestohlen. Solche Dokumente seien deshalb wichtig, weil sie möglicherweise auf geplante Angriffe hinweisen, die dann verhindert werden könnten.

Enttarnt!

Eine weitere Analyse ergab, dass neben dem Syscall Proxy auch eine weitere Malware enthalten war. Sie war aber eher rudimentär programmiert und sollte etwa die Dateien auslesen, in denen Zugangsdaten gespeichert sind. In dem Code entdeckten die Datenexperten nochmals das Handle Woll3n.H4t sowie eine Gmail-Adresse. Und noch viel wichtiger: den redigierten Klarnamen einer der Programmierer der Malware. Sie machten keine Schuldzuweisung, sagten Evron und Werner, sie seien sich aber zu 99,99 Prozent sicher, dass ein Land hinter den Angriffen stecke.

Für ein letztes Foto zum Schluss des Vortrags posierten die beiden vor einem Foto der iranischen Flagge.

 

Übernommen aus:

www.golem.de

Gericht: Google-Suchergebnisse fallen unter freie Meinungsäußerung

Ein US-amerikanisches Gericht hat bestätigt, dass die Ergebnisse einer Google-Suche als freie Meinungsäußerung gelten und das Unternehmen diese ordnen kann wie es will. Damit stellt sich die US-Rechtsprechung auf die Seite des kalifornischen Konzerns und damit auch gegen die Ansichten der europäischen Gerichte. In Europa sorgte jüngst das “Recht auf Vergessenwerden” für zahlreiche Diskussionen, da Google von außen gezwungen wurde, Links zu bestimmten Informationen aus dem Index zu nehmen, damit diese nicht (so leicht) gefunden werden können. In den USA ist nun aber erneut ein Urteil gefällt worden, wonach die Google-Suchergebnisse mit freier Rede gleichzusetzen sind.

Unfaire Reihung?

Laut einem Bericht von Ars Technicawurde das Unternehmen aus Mountain View von einer Webseite namens CoastNews verklagt. Deren Besitzer war der Ansicht, dass Google unfairerweise seine Seite zu weit unten bzw. hinten einreiht, während sie auf Bing und Yahoo ganz vorne auftauchen. Das verstoße, so der Besitzer von CoastNews, gegen Anti-Kartell-Gesetze.

Dagegen ging Google per so genannten Anti-SLAPP-Antrag vor (Strategic Lawsuits Against Public Participation), damit lässt sich eine Klage bereits in einer sehr frühen Phase abwehren, wenn mit dem Vorgehen eine Bedrohung für die freie Meinungsäußerung besteht. Im aktuellen Fall ließ das Gericht dieses Vorgehen zu und verwies auf den Umstand, dass Google seine Suchergebnisse so ordnen könne, wie es das Unternehmen will bzw. für richtig hält.

1. Zusatzartikel zur US-Verfassung

Es ist nicht das erste Mal, dass Google unter Schutz des 1. Zusatzartikels zur Verfassung der Vereinigten Staaten (First Amendment) gestellt wird: 2011 untersuchte ein Ausschuss des US-Senats die Google-Suchergebnisse auf etwaige Monopolbedenken, auch die Handelskommission FTC nahm sich Google vor. Beide scheiterten beim Versuch, Google einen Verstoß nachzuweisen.

2012 hatte eine Studie zweier renommierter Rechtswissenschaftler festgestellt, dass Google zwar mit “komplexen Computer-Algorithmen” arbeite, diese aber auf dem Urteilsvermögen menschlicher Techniker basierten, was wo in den Suchergebnissen zu finden sein soll, und somit auch unter freie Meinungsäußerung fallen. Google, Logo, SuchmaschineGoogle, Logo, Suchmaschine Quelle

2014-11-18T12:45:00+01:00Witold Pryjda

 

Zuerst erschienen auf:

http://winfuture.de/

SSLv3: Kaspersky-Software hebelt Schutz vor Poodle-Lücke aus

 

SSLv3

Das Paket Kaspersky Internet Security kann auch bei Browsern, die unsichere Verbindungen per SSLv3 nicht unterstützen, das veraltete Protokoll dennoch aktivieren. Patchen will das der Hersteller erst 2015, es gibt aber schon jetzt eine einfache Lösung.

Selbst wenn ein Browser wie der aktuelle Firefox 34 und die nächste Version 40 von Chrome SSLv3 nicht mehr nutzt, kann darüber dennoch eine Verbindung hergestellt werden. Dies berichtet Heise Online, nachdem ein Leser die Redaktion darauf aufmerksam gemacht hatte. Die Kollegen konnten das Problem nachstellen, es liegt daran, wie Kaspersky Internet Security funktioniert.

Das Programm arbeitete wie ein Man-in-the-middle: Ist die Funktion “Sichere Verbindungen untersuchen” in der Kaspersky-Software eingeschaltet, so kommuniziert der Browser nicht mehr direkt mit einem Server, sondern mit dem vermeintlichen Schutzprogramm. Dieses stellt selbst dann eine SSLv3-Verbindung her, auch wenn dieses Protokoll im Browser ausgeschaltet ist.

Das ist problematisch, weil die Verbindung dann über die Poodle-Lücke angreifbar ist. Eine vermeintlich verschlüsselte SSL-Verbindung ist durch Poodle angreifbar, deshalb entfernen die Browserhersteller derzeit auch das veraltete SSLv3 aus ihren Programmen. Die Kaspersky-Software fügt diese Funktion nun unnötigerweise wieder hinzu.

Der russische Antivirenhersteller bestätigte Heise Online das Problem und will sein Produkt patchen – aber erst im ersten Quartal 2015. Im Supportforum von Kaspersky heißt es sogar, ein Rechner sei nur durch Poodle angreifbar, wenn er ohnehin schon kompromittiert sei. Und eine Man-in-the-Middle-Attacke würde das Kaspersky-Programm sowieso abfangen – ein schwaches Sicherheitsversprechen.

Wer Kaspersky Internet Security also bis zu einem Patch weiterhin einsetzen will, sollte die Option “Sichere Verbindungen untersuchen” vorerst abschalten und seinem Browser SSLv3-Verbindungen verbieten.

Link zur Homepage:

www.golem.de/

SSLv3: Kaspersky-Software hebelt Schutz vor Poodle-Lücke aus

 

SSLv3

Das Paket Kaspersky Internet Security kann auch bei Browsern, die unsichere Verbindungen per SSLv3 nicht unterstützen, das veraltete Protokoll dennoch aktivieren. Patchen will das der Hersteller erst 2015, es gibt aber schon jetzt eine einfache Lösung.

Selbst wenn ein Browser wie der aktuelle Firefox 34 und die nächste Version 40 von Chrome SSLv3 nicht mehr nutzt, kann darüber dennoch eine Verbindung hergestellt werden. Dies berichtet Heise Online, nachdem ein Leser die Redaktion darauf aufmerksam gemacht hatte. Die Kollegen konnten das Problem nachstellen, es liegt daran, wie Kaspersky Internet Security funktioniert.

Das Programm arbeitete wie ein Man-in-the-middle: Ist die Funktion “Sichere Verbindungen untersuchen” in der Kaspersky-Software eingeschaltet, so kommuniziert der Browser nicht mehr direkt mit einem Server, sondern mit dem vermeintlichen Schutzprogramm. Dieses stellt selbst dann eine SSLv3-Verbindung her, auch wenn dieses Protokoll im Browser ausgeschaltet ist.

Das ist problematisch, weil die Verbindung dann über die Poodle-Lücke angreifbar ist. Eine vermeintlich verschlüsselte SSL-Verbindung ist durch Poodle angreifbar, deshalb entfernen die Browserhersteller derzeit auch das veraltete SSLv3 aus ihren Programmen. Die Kaspersky-Software fügt diese Funktion nun unnötigerweise wieder hinzu.

Der russische Antivirenhersteller bestätigte Heise Online das Problem und will sein Produkt patchen – aber erst im ersten Quartal 2015. Im Supportforum von Kaspersky heißt es sogar, ein Rechner sei nur durch Poodle angreifbar, wenn er ohnehin schon kompromittiert sei. Und eine Man-in-the-Middle-Attacke würde das Kaspersky-Programm sowieso abfangen – ein schwaches Sicherheitsversprechen.

Wer Kaspersky Internet Security also bis zu einem Patch weiterhin einsetzen will, sollte die Option “Sichere Verbindungen untersuchen” vorerst abschalten und seinem Browser SSLv3-Verbindungen verbieten.

Link zur Homepage:

www.golem.de/

Soaksoak: Malware-Welle infiziert WordPress-Seiten

Soaksoak

Durch eine Lücke in einem beliebten Plugin werden derzeit WordPress-Installationen in großer Zahl kompromittiert. Der Fehler steckt in einem Tool für responsives Webdesign, von dem viele Nutzer nicht einmal wissen dürften, dass sie es verwenden.

In älteren Versionen des WordPress-Plugins Slider Revolution stecken Sicherheitslücken, die bereits aktiv ausgenutzt werden. Dies berichtet das Security-Unternehmen Sucuri, das online Webseiten scannt, in seinem Blog. Zwar wurde die Lücke bereits durch Version 4.2 des Plugins geschlossen, auf zahlreichen Webseiten sind aber offenbar noch ältere Ausgaben installiert.

Sucuri berichtet von über 100.000 Installationen, die das Unternehmen mit den Infektionen gefunden hat. Dabei wird von den WordPress-Seiten Code von der Webseite soaksoak.ru nachgeladen, durch welche die Malware ihren Namen bekommen hat. Durch die Malware können sowohl Daten von den Webservern ausgelesen werden als auch Besucher der Sites angegriffen werden. Daher sind Sucuri zufolge über 11.000 Domains bei Google gesperrt worden. Die Zahl der infizieren Sites soll aber mindestens eine Größenordnung darüber liegen.

Problematisch ist bei den Lücken in Slider Revolution nicht nur die hohe Verbreitung des Plugins, das für Resonsive Webdesign dient. Vor allem ist die WordPress-Erweiterung auch noch kostenpflichtig und nicht immer mit automatischen Updates versehen. Viele Webspace-Provider bieten Sucuri zufolge die Themes für WordPress zusammen mit dem Plugin an, so dass manche Betreiber nicht einmal wissen dürften, dass sie Slider Revolution einsetzen.

Abhilfe schafft nur eine Aktualisierung des Plugins und das Bereinigen der Installation von der Malware-Infektion, wie Sucuri in seinem Blog beschreibt. Ab der Version 4.2 von Slider Revolution soll die Lücke nicht mehr existieren. Wer anlässlich dessen gerade seine WordPress-Installation überprüft, sollte auch darauf achten, dass mindestens Version 4.0 von WordPress selbst vorhanden ist. In älteren Ausgaben gibt es eine andere Lücke, die XSS-Angriffe ermöglicht.  (nie)

 

Original:

http://www.golem.de/news

Soaksoak: Malware-Welle infiziert WordPress-Seiten

Soaksoak

Durch eine Lücke in einem beliebten Plugin werden derzeit WordPress-Installationen in großer Zahl kompromittiert. Der Fehler steckt in einem Tool für responsives Webdesign, von dem viele Nutzer nicht einmal wissen dürften, dass sie es verwenden.

In älteren Versionen des WordPress-Plugins Slider Revolution stecken Sicherheitslücken, die bereits aktiv ausgenutzt werden. Dies berichtet das Security-Unternehmen Sucuri, das online Webseiten scannt, in seinem Blog. Zwar wurde die Lücke bereits durch Version 4.2 des Plugins geschlossen, auf zahlreichen Webseiten sind aber offenbar noch ältere Ausgaben installiert.

Sucuri berichtet von über 100.000 Installationen, die das Unternehmen mit den Infektionen gefunden hat. Dabei wird von den WordPress-Seiten Code von der Webseite soaksoak.ru nachgeladen, durch welche die Malware ihren Namen bekommen hat. Durch die Malware können sowohl Daten von den Webservern ausgelesen werden als auch Besucher der Sites angegriffen werden. Daher sind Sucuri zufolge über 11.000 Domains bei Google gesperrt worden. Die Zahl der infizieren Sites soll aber mindestens eine Größenordnung darüber liegen.

Problematisch ist bei den Lücken in Slider Revolution nicht nur die hohe Verbreitung des Plugins, das für Resonsive Webdesign dient. Vor allem ist die WordPress-Erweiterung auch noch kostenpflichtig und nicht immer mit automatischen Updates versehen. Viele Webspace-Provider bieten Sucuri zufolge die Themes für WordPress zusammen mit dem Plugin an, so dass manche Betreiber nicht einmal wissen dürften, dass sie Slider Revolution einsetzen.

Abhilfe schafft nur eine Aktualisierung des Plugins und das Bereinigen der Installation von der Malware-Infektion, wie Sucuri in seinem Blog beschreibt. Ab der Version 4.2 von Slider Revolution soll die Lücke nicht mehr existieren. Wer anlässlich dessen gerade seine WordPress-Installation überprüft, sollte auch darauf achten, dass mindestens Version 4.0 von WordPress selbst vorhanden ist. In älteren Ausgaben gibt es eine andere Lücke, die XSS-Angriffe ermöglicht.  (nie)

 

Original:

http://www.golem.de/news

“Null Toleranz”: Google Glass ist nun in allen US-Kinos verboten

Die Augmented-Reality-Brille von Google sorgte in Vergangenheit schon das eine oder andere Mal für Ärger zwischen den Besitzern und Betreibern von Kinos. Die Vereinigung der US-Kinobetreiber hat gemeinsam mit der Motion Picture Association of America (MPAA) eine “Null-Toleranz-Politik” beschlossen bzw. bekräftigt.

Kameras sind und bleiben verboten

Grund dafür ist natürlich in erster Linie die integrierte Google-Glass-Kamera, Kinos und Hollywood-Studios fürchten, dass damit das Abfilmen von Kinoproduktionen noch leichter wird und die einschlägigen Netzwerke mit “Glass-Raubkopien” geflutet werden.
Wie das Hollywood-Branchenblatt Variety berichtet, haben die Kinobetreiber der National Association of Theatre Owners (NATO) sowie die Motion Picture Association of America (MPAA) sich auf eine gemeinsame Richtlinie in Bezug auf Wearables geeinigt und diese nun bekannt gegeben. Die beiden Organisationen sprechen zwar allgemein von Wearables, also tragbarer Elektronik, es ist aber sicherlich dennoch eine “Lex Google Glass.”

In einer gemeinsamen Mitteilung von NATO und MPAA heißt es dazu, dass man eine “lange Geschichte” habe, technologische Fortschritte willkommen zu heißen, man verstehe auch das große Interesse der Konsumenten an Smartphones und tragbaren “intelligenten” Geräten.

“Null Toleranz”

Dennoch müsse man eine “Null-Toleranz-Politik” gegenüber allen Geräten, mit denen Aufnahmen durchgeführt werden können, beibehalten. Elektronik, die zum filmen geeignet ist, muss generell ausgeschaltet werden, wer dem nicht nachkommt und erwischt wird, dem droht ein Verweis aus dem Kino. Sollten die Kinobetreiber den Verdacht haben, dass eine Person “illegale Aufnahme-Aktivitäten” durchführt, dann wird man bei Bedarf die zuständigen Exekutivorgane alarmieren, heißt es in der Erklärung.

 

Ursprünglich veröffentlicht:

winfuture.de/news,84306.html

“Null Toleranz”: Google Glass ist nun in allen US-Kinos verboten

Die Augmented-Reality-Brille von Google sorgte in Vergangenheit schon das eine oder andere Mal für Ärger zwischen den Besitzern und Betreibern von Kinos. Die Vereinigung der US-Kinobetreiber hat gemeinsam mit der Motion Picture Association of America (MPAA) eine “Null-Toleranz-Politik” beschlossen bzw. bekräftigt.

Kameras sind und bleiben verboten

Grund dafür ist natürlich in erster Linie die integrierte Google-Glass-Kamera, Kinos und Hollywood-Studios fürchten, dass damit das Abfilmen von Kinoproduktionen noch leichter wird und die einschlägigen Netzwerke mit “Glass-Raubkopien” geflutet werden.
Wie das Hollywood-Branchenblatt Variety berichtet, haben die Kinobetreiber der National Association of Theatre Owners (NATO) sowie die Motion Picture Association of America (MPAA) sich auf eine gemeinsame Richtlinie in Bezug auf Wearables geeinigt und diese nun bekannt gegeben. Die beiden Organisationen sprechen zwar allgemein von Wearables, also tragbarer Elektronik, es ist aber sicherlich dennoch eine “Lex Google Glass.”

In einer gemeinsamen Mitteilung von NATO und MPAA heißt es dazu, dass man eine “lange Geschichte” habe, technologische Fortschritte willkommen zu heißen, man verstehe auch das große Interesse der Konsumenten an Smartphones und tragbaren “intelligenten” Geräten.

“Null Toleranz”

Dennoch müsse man eine “Null-Toleranz-Politik” gegenüber allen Geräten, mit denen Aufnahmen durchgeführt werden können, beibehalten. Elektronik, die zum filmen geeignet ist, muss generell ausgeschaltet werden, wer dem nicht nachkommt und erwischt wird, dem droht ein Verweis aus dem Kino. Sollten die Kinobetreiber den Verdacht haben, dass eine Person “illegale Aufnahme-Aktivitäten” durchführt, dann wird man bei Bedarf die zuständigen Exekutivorgane alarmieren, heißt es in der Erklärung.

 

Ursprünglich veröffentlicht:

winfuture.de/news,84306.html

Zwangsgeld: Google muss Verarbeitung von Kundendaten ändern

Der Suchmaschinenriese Google geht bei der internen Nutzung und Analyse von Kundendaten weit über das gesetzliche Erlaubte hinaus – das hat der Hamburgische Beauftrage für Datenschutz und Informationsfreiheit Johannes Caspar festgestellt und gegen Google ein Zwangsgeld auferlegt.Bis zu einer Million Euro Strafe drohen dem US-Konzern nun, sollte das Unternehmen sich nicht der Anordnung beugen. Google hat in Hamburg seinen Deutschlandsitz, wodurch die Hamburger Behörde zuständig ist. Die fraglichen Verstöße betreffen nationales sowie EU-Recht. Gefordert wird eine wesentliche Änderungen bei der Datenverarbeitung von Google, da die Datenschützer aktuell Verstöße gegen das Telemediengesetz und gegen das Bundesdatenschutzgesetz bemängeln. Dazu Johannes Caspar: “Zwar konnten wir in zahlreichen Gesprächen mit Google Verbesserungen insbesondere bei der Information der Nutzer erreichen. Bei der wesentlichen Frage der Zusammenführung der Nutzerdaten war Google jedoch nicht bereit, die rechtlich erforderlichen Maßnahmen einzuhalten und substantielle Verbesserungen zugunsten der Nutzerkontrolle umzusetzen. Insoweit wird Google nun per Anordnung dazu verpflichtet. Unsere Anforderungen zielen auf einen fairen, gesetzlich vorgesehenen Ausgleich zwischen den Interessen des Unternehmens und denen seiner Nutzer. Der Ball liegt nun im Spielfeld von Google. Das Unternehmen muss die Daten von Millionen von Nutzern so behandeln, dass deren Recht auf informationelle Selbstbestimmung künftig bei der Nutzung der unterschiedlichen Dienste des Unternehmens hinreichend gewahrt wird.”

Vor kurzem hatte auch Bundesinnenminister Thomas de Maizière einen ähnlichen Vorsprung gewagt: In der Frankfurter Allgemeinen Sonntagszeitung forderte er ein Verbot für Firmen wie Google, anhand von Kundendaten Profile zu erstellen und diese gewonnenen Daten zu verkaufen.

Mehr dazu: Minister de Maizière will Verkauf von Internetprofilen verhindern

In dem aktuellen Verfahren in Hamburg geht es um die Verknüpfung besonders sensibler personenbezogener Daten. Dabei sind neben Standortdaten von PC und Mobilfunkgeräten auch Daten aus den sozialen Netzwerken sowie Auswertungen von Suchanfragen. Vor allem die Bildung von diensteübergreifender Profile ist dabei fragwürdig – und genau diese behält sich Google durch die geltenden Privatsphärebestimmungen in den Nutzungsbedingungen ausdrücklich vor.

In der Bekanntgabe der Anordnung heißt es daher: “Da für eine derartig massive Profilbildung unter Zusammenführung aller Daten weder im nationalen noch im europäischen Recht eine Rechtsgrundlage existiert, ist dies nur dann zulässig, wenn der Nutzer ausdrücklich und informiert in eine derartige Verarbeitung seiner Daten eingewilligt hat oder – soweit dies gesetzlich vorgesehen ist – er dagegen widersprechen kann. Nach Auffassung der Datenschutzbehörde greift die bisherige Praxis der Erstellung von Nutzerprofilen weit über das zulässige Maß hinaus in die Privatsphäre der Google-Nutzer ein. Google wird verpflichtet, technische und organisatorische Maßnahmen zu ergreifen, die sicherstellen, dass deren Nutzer künftig selbst über die Verwendung der eigenen Daten zur Profilerstellung entscheiden können.”

 

Originalbeitrag:

winfuture.de/news

Zwangsgeld: Google muss Verarbeitung von Kundendaten ändern

Der Suchmaschinenriese Google geht bei der internen Nutzung und Analyse von Kundendaten weit über das gesetzliche Erlaubte hinaus – das hat der Hamburgische Beauftrage für Datenschutz und Informationsfreiheit Johannes Caspar festgestellt und gegen Google ein Zwangsgeld auferlegt.Bis zu einer Million Euro Strafe drohen dem US-Konzern nun, sollte das Unternehmen sich nicht der Anordnung beugen. Google hat in Hamburg seinen Deutschlandsitz, wodurch die Hamburger Behörde zuständig ist. Die fraglichen Verstöße betreffen nationales sowie EU-Recht. Gefordert wird eine wesentliche Änderungen bei der Datenverarbeitung von Google, da die Datenschützer aktuell Verstöße gegen das Telemediengesetz und gegen das Bundesdatenschutzgesetz bemängeln. Dazu Johannes Caspar: “Zwar konnten wir in zahlreichen Gesprächen mit Google Verbesserungen insbesondere bei der Information der Nutzer erreichen. Bei der wesentlichen Frage der Zusammenführung der Nutzerdaten war Google jedoch nicht bereit, die rechtlich erforderlichen Maßnahmen einzuhalten und substantielle Verbesserungen zugunsten der Nutzerkontrolle umzusetzen. Insoweit wird Google nun per Anordnung dazu verpflichtet. Unsere Anforderungen zielen auf einen fairen, gesetzlich vorgesehenen Ausgleich zwischen den Interessen des Unternehmens und denen seiner Nutzer. Der Ball liegt nun im Spielfeld von Google. Das Unternehmen muss die Daten von Millionen von Nutzern so behandeln, dass deren Recht auf informationelle Selbstbestimmung künftig bei der Nutzung der unterschiedlichen Dienste des Unternehmens hinreichend gewahrt wird.”

Vor kurzem hatte auch Bundesinnenminister Thomas de Maizière einen ähnlichen Vorsprung gewagt: In der Frankfurter Allgemeinen Sonntagszeitung forderte er ein Verbot für Firmen wie Google, anhand von Kundendaten Profile zu erstellen und diese gewonnenen Daten zu verkaufen.

Mehr dazu: Minister de Maizière will Verkauf von Internetprofilen verhindern

In dem aktuellen Verfahren in Hamburg geht es um die Verknüpfung besonders sensibler personenbezogener Daten. Dabei sind neben Standortdaten von PC und Mobilfunkgeräten auch Daten aus den sozialen Netzwerken sowie Auswertungen von Suchanfragen. Vor allem die Bildung von diensteübergreifender Profile ist dabei fragwürdig – und genau diese behält sich Google durch die geltenden Privatsphärebestimmungen in den Nutzungsbedingungen ausdrücklich vor.

In der Bekanntgabe der Anordnung heißt es daher: “Da für eine derartig massive Profilbildung unter Zusammenführung aller Daten weder im nationalen noch im europäischen Recht eine Rechtsgrundlage existiert, ist dies nur dann zulässig, wenn der Nutzer ausdrücklich und informiert in eine derartige Verarbeitung seiner Daten eingewilligt hat oder – soweit dies gesetzlich vorgesehen ist – er dagegen widersprechen kann. Nach Auffassung der Datenschutzbehörde greift die bisherige Praxis der Erstellung von Nutzerprofilen weit über das zulässige Maß hinaus in die Privatsphäre der Google-Nutzer ein. Google wird verpflichtet, technische und organisatorische Maßnahmen zu ergreifen, die sicherstellen, dass deren Nutzer künftig selbst über die Verwendung der eigenen Daten zur Profilerstellung entscheiden können.”

 

Originalbeitrag:

winfuture.de/news

Meinung zur kommenden Betriebssystemversion: Windows 10 – Das haben wir zu erwarten


Geräte über alles

Hersteller von Betriebssystemen haben es heutzutage nicht leicht. Immer mehr Geräte mit unterschiedlichsten Dimensionen erscheinen auf dem Markt oder kommen direkt aus dem eigenen Hause. Doch die Rechenleistung dieser Geräte ist längst mit Spielekonsolen und Desktop-Computern der letzten Generationen vergleichbar.Damit stellt sich schnell die Frage, ob man nicht ein einheitliches Betriebssystem für alle Geräte entwerfen kann, damit der Aufwand für die eigene Entwicklung und für die App-Entwicklung geringer ist. Eine Applikation, die auf allen Geräten läuft, wäre sicherlich aus Sicht der Softwarewareentwicklung mehr als erstrebenswert. Einzig die Gestaltung der Oberflächen und der Benutzbarkeit aus Anwendersicht wären dann noch Punkte, die bedacht werden müssten, da jedes Gerät eine andere Steuerung und Darstellung der Informationen bereitstellt. Mit Windows 8 versuchte Microsoft das erste Mal diesen Weg einzuschlagen und ein für Tablets optimiertes Betriebssystem mit Elementen des Smartphone-Betriebssystems, auch auf dem Desktop, bereitzustellen. Dies führte zu einer sehr polarisierten Meinung bei Anwendern und Unternehmen, woraufhin Microsoft einlenken und einiges nachbessern musste. Mit Version 8.1 ging es dann schon weiter in Richtung größerer Akzeptanz und auch in Firmen und auf Entwickler-PCs fasste das Betriebssystem Fuß.

Abstand schaffen

Windows 10 ist der Name der nächsten Betriebssystemversion nach Windows 8.1. Damit überspringt Microsoft bewusst die Nummer neun. Dies schafft bereits sprachlich eine Distanz, welches eine objektivere Neubetrachtung der Inhalte erlaubt. “Windows 10 ist nicht einfach ein neues Betriebssystem, sondern ein fundamentaler Sprung in eine neue Generation” – verkündete Microsoft-Chef Satya Nadelia auf dem Microsoft Technical Summit 2014 an der TU Berlin. Aus Marketing- und Produktsicht ist Windows 10 eine Produktfamilie, eine Plattform und ein Store. Somit scheint zumindest auf den ersten Blick das Ziel von einer einheitlichen Plattform erreicht worden zu sein. Doch kann das zukünftige Produkt auch halten, was es verspricht? Was macht das neue Betriebssystem für einen Eindruck in der technischen Vorschauversion? Eine kurze Übersicht liefert die folgende Bildergalerie.

Business Features

Neben den vielen positiven Aspekten für den privaten Anwender, gibt es natürlich auch Eigenschaften, welche die Unternehmenansprechen.

In puncto Sicherheit wurde beispielsweise die Multi-Faktor-Authentifizierung (MFA) über Smartcards und Token in das Betriebssystem integriert. Neben der weiterhin vorhandenen Bitlocker-Verschlüsselung bietet Windows 10 eine Sicherheitsschicht auf Dateiebene, welche die Daten auch dann schützt, wenn Sie das Gerät verlassen. Wie diese Sicherheitsschicht im Detail endgültig implementiert sein wird bleibt noch offen. Sicherlich wird es ein sehr genau untersuchtes Feature werden, welches auch richtungsweisend für andere Cloud-Dienste sein könnte. Vermutlich wird es in Richtung Active Directory-Rechteverwaltungsdienste bei der Umsetzung gehen. Festzuhalten bleibt, wenn dieser Schutz auf Dateiebene schlank und sicher umgesetzt wird, dann ist der Ansatz, dass die Sicherheit den Daten folgt, eine sehr große positive Neuerung. Die Sicherheit folgt dann den Daten und die Daten dem Nutzer.

Apropos Daten die folgen: OneDrive und OneDrive Business werden zukünftig verschmelzen. Vermutlich werden die lokalen Platzhalter verschwinden. Diese Platzhalter symbolisierten bisher die nicht wirklich physikalisch vorhandenen (synchronisierten) Dateien. Damit hatte man zwar einen Überblick über die Daten, die Online verfügbar waren, jedoch nicht unbedingt immer alle wichtigen Dateien beim Kundentermin dabei. Dies hatte den Grund, dass nur der Platzhalter im Windows Explorer erblickt wurde bevor man sich auf den Weg gemacht hat. Zukünftig wird es wohl, wie bei vielen anderen Cloud-Diensten auch, nur noch eine komplette Synchronisation oder eine Synchronisierung von vorher selektierten Ordnern geben. Man könnte es mit dem Akronym WYSIWYH (What you see is what you have) beschreiben.

Das große Continuum und die Verwaltung

Sie sitzen an Ihrem Schreibtisch, der Kollege steckt seinen Kopf durch die Tür und ruft Sie zum nächsten Meeting. Sie docken Ihren hybriden Laptop aus und klemmen sich das praktische Tablet unter den Arm. Wenn Sie nun noch ein Windows 10 als Betriebssystem installiert haben, dann wird diese Veränderung registriert und das Betriebssystem fragt bei Ihnen höflich nach, ob die Ansicht auf eine für Tablets optimierte Darstellung wechseln soll. Das Ganze hat den Namen “Continuum” bekommen und ist eine umgebungsbasierte, automatische UI-Anpassung, welche das Berufsleben ein Stück einfacher machen soll.

Bezüglich des Gerätemanagements unterstützt Windows 10 als ein Wanderer zwischen den Geräten Mobile Device Management (MDM) Werkzeuge und ebenso Active Directory und System Center Ansätze zur Verwaltung der Endgeräte innerhalb des Unternehmens. Damit bietet das neue Betriebssystem für alle Unternehmensgrößen eine passende Lösung zur Verwaltung an.

Update ist nicht gleich Update

In Windows 10 wird es zwei Update-Pfade geben. Nutzer von Ubuntu kennen diese Art der Separation von Updates. Ein Pfad ist für Server und Workstations geeignet, da nicht die neuesten Features und Oberflächenanpassungen aktualisiert werden. Der andere Pfad ist an die Desktops und mobilen Endgeräte adressiert. Hier haben Aktualität und Funktionalität Vorrang vor der Stabilität. Generell eine sehr sinnvolle neue Möglichkeit die unterschiedlichen Systeme aktuell und stabil zu halten. Unterschiedliche Geräte und deren mannigfaltige Aufgaben verlangen schon beinahe unterschiedliche Update-Pfade. Daher Daumen hoch für diesen Entschluss.

Fazit

Windows 10 wird sicherlich ein sehr heißer Kandidat für eine Migration von bestehenden Windows XP und Windows 7 Systemen sein. Microsoft hat mit der technischen Vorschau einen guten evolutionären Schritt getan. Ob es ein fundamentaler Sprung wird, wie es Microsoft-Chef Satya Nadelia angekündigt hat, bleibt abzuwarten. Denn dazu müssen die tollen neuen Features und Ideen mit der entsprechenden Leichtigkeit daherkommen. Potential hat das Betriebssystem allemal und die Stabilität der technischen Vorschau kann sich auch sehen lassen. Drücken wir also Microsoft die Daumen, eine unternehmenskompatible und universelle Plattform für Apps und Geräte mit Windows 10 erschaffen zu können. Dies wäre gerade in der Konkurrenz zu Apple ein wichtiger Schritt, denn dort hat man zwar ebenfalls diesen Weg eingeschlagen, nur ist man noch nicht auf der Betriebssystemebene angelangt.

Damit die neuen Features nicht nur eine Aufzählung bleiben, biete ich Ihnen auch an, sich selbst einen Eindruck zu verschaffen. Kontaktieren sie mich gerne. Auf Wunsch stelle ich Ihnen einen Zugang zu der technischen Vorschauversion aus diesem Beitrag zur Verfügung. (bw)

 

Artikel-Quelle:

http://www.computerwoche.de/

Meinung zur kommenden Betriebssystemversion: Windows 10 – Das haben wir zu erwarten


Geräte über alles

Hersteller von Betriebssystemen haben es heutzutage nicht leicht. Immer mehr Geräte mit unterschiedlichsten Dimensionen erscheinen auf dem Markt oder kommen direkt aus dem eigenen Hause. Doch die Rechenleistung dieser Geräte ist längst mit Spielekonsolen und Desktop-Computern der letzten Generationen vergleichbar.Damit stellt sich schnell die Frage, ob man nicht ein einheitliches Betriebssystem für alle Geräte entwerfen kann, damit der Aufwand für die eigene Entwicklung und für die App-Entwicklung geringer ist. Eine Applikation, die auf allen Geräten läuft, wäre sicherlich aus Sicht der Softwarewareentwicklung mehr als erstrebenswert. Einzig die Gestaltung der Oberflächen und der Benutzbarkeit aus Anwendersicht wären dann noch Punkte, die bedacht werden müssten, da jedes Gerät eine andere Steuerung und Darstellung der Informationen bereitstellt. Mit Windows 8 versuchte Microsoft das erste Mal diesen Weg einzuschlagen und ein für Tablets optimiertes Betriebssystem mit Elementen des Smartphone-Betriebssystems, auch auf dem Desktop, bereitzustellen. Dies führte zu einer sehr polarisierten Meinung bei Anwendern und Unternehmen, woraufhin Microsoft einlenken und einiges nachbessern musste. Mit Version 8.1 ging es dann schon weiter in Richtung größerer Akzeptanz und auch in Firmen und auf Entwickler-PCs fasste das Betriebssystem Fuß.

Abstand schaffen

Windows 10 ist der Name der nächsten Betriebssystemversion nach Windows 8.1. Damit überspringt Microsoft bewusst die Nummer neun. Dies schafft bereits sprachlich eine Distanz, welches eine objektivere Neubetrachtung der Inhalte erlaubt. “Windows 10 ist nicht einfach ein neues Betriebssystem, sondern ein fundamentaler Sprung in eine neue Generation” – verkündete Microsoft-Chef Satya Nadelia auf dem Microsoft Technical Summit 2014 an der TU Berlin. Aus Marketing- und Produktsicht ist Windows 10 eine Produktfamilie, eine Plattform und ein Store. Somit scheint zumindest auf den ersten Blick das Ziel von einer einheitlichen Plattform erreicht worden zu sein. Doch kann das zukünftige Produkt auch halten, was es verspricht? Was macht das neue Betriebssystem für einen Eindruck in der technischen Vorschauversion? Eine kurze Übersicht liefert die folgende Bildergalerie.

Business Features

Neben den vielen positiven Aspekten für den privaten Anwender, gibt es natürlich auch Eigenschaften, welche die Unternehmenansprechen.

In puncto Sicherheit wurde beispielsweise die Multi-Faktor-Authentifizierung (MFA) über Smartcards und Token in das Betriebssystem integriert. Neben der weiterhin vorhandenen Bitlocker-Verschlüsselung bietet Windows 10 eine Sicherheitsschicht auf Dateiebene, welche die Daten auch dann schützt, wenn Sie das Gerät verlassen. Wie diese Sicherheitsschicht im Detail endgültig implementiert sein wird bleibt noch offen. Sicherlich wird es ein sehr genau untersuchtes Feature werden, welches auch richtungsweisend für andere Cloud-Dienste sein könnte. Vermutlich wird es in Richtung Active Directory-Rechteverwaltungsdienste bei der Umsetzung gehen. Festzuhalten bleibt, wenn dieser Schutz auf Dateiebene schlank und sicher umgesetzt wird, dann ist der Ansatz, dass die Sicherheit den Daten folgt, eine sehr große positive Neuerung. Die Sicherheit folgt dann den Daten und die Daten dem Nutzer.

Apropos Daten die folgen: OneDrive und OneDrive Business werden zukünftig verschmelzen. Vermutlich werden die lokalen Platzhalter verschwinden. Diese Platzhalter symbolisierten bisher die nicht wirklich physikalisch vorhandenen (synchronisierten) Dateien. Damit hatte man zwar einen Überblick über die Daten, die Online verfügbar waren, jedoch nicht unbedingt immer alle wichtigen Dateien beim Kundentermin dabei. Dies hatte den Grund, dass nur der Platzhalter im Windows Explorer erblickt wurde bevor man sich auf den Weg gemacht hat. Zukünftig wird es wohl, wie bei vielen anderen Cloud-Diensten auch, nur noch eine komplette Synchronisation oder eine Synchronisierung von vorher selektierten Ordnern geben. Man könnte es mit dem Akronym WYSIWYH (What you see is what you have) beschreiben.

Das große Continuum und die Verwaltung

Sie sitzen an Ihrem Schreibtisch, der Kollege steckt seinen Kopf durch die Tür und ruft Sie zum nächsten Meeting. Sie docken Ihren hybriden Laptop aus und klemmen sich das praktische Tablet unter den Arm. Wenn Sie nun noch ein Windows 10 als Betriebssystem installiert haben, dann wird diese Veränderung registriert und das Betriebssystem fragt bei Ihnen höflich nach, ob die Ansicht auf eine für Tablets optimierte Darstellung wechseln soll. Das Ganze hat den Namen “Continuum” bekommen und ist eine umgebungsbasierte, automatische UI-Anpassung, welche das Berufsleben ein Stück einfacher machen soll.

Bezüglich des Gerätemanagements unterstützt Windows 10 als ein Wanderer zwischen den Geräten Mobile Device Management (MDM) Werkzeuge und ebenso Active Directory und System Center Ansätze zur Verwaltung der Endgeräte innerhalb des Unternehmens. Damit bietet das neue Betriebssystem für alle Unternehmensgrößen eine passende Lösung zur Verwaltung an.

Update ist nicht gleich Update

In Windows 10 wird es zwei Update-Pfade geben. Nutzer von Ubuntu kennen diese Art der Separation von Updates. Ein Pfad ist für Server und Workstations geeignet, da nicht die neuesten Features und Oberflächenanpassungen aktualisiert werden. Der andere Pfad ist an die Desktops und mobilen Endgeräte adressiert. Hier haben Aktualität und Funktionalität Vorrang vor der Stabilität. Generell eine sehr sinnvolle neue Möglichkeit die unterschiedlichen Systeme aktuell und stabil zu halten. Unterschiedliche Geräte und deren mannigfaltige Aufgaben verlangen schon beinahe unterschiedliche Update-Pfade. Daher Daumen hoch für diesen Entschluss.

Fazit

Windows 10 wird sicherlich ein sehr heißer Kandidat für eine Migration von bestehenden Windows XP und Windows 7 Systemen sein. Microsoft hat mit der technischen Vorschau einen guten evolutionären Schritt getan. Ob es ein fundamentaler Sprung wird, wie es Microsoft-Chef Satya Nadelia angekündigt hat, bleibt abzuwarten. Denn dazu müssen die tollen neuen Features und Ideen mit der entsprechenden Leichtigkeit daherkommen. Potential hat das Betriebssystem allemal und die Stabilität der technischen Vorschau kann sich auch sehen lassen. Drücken wir also Microsoft die Daumen, eine unternehmenskompatible und universelle Plattform für Apps und Geräte mit Windows 10 erschaffen zu können. Dies wäre gerade in der Konkurrenz zu Apple ein wichtiger Schritt, denn dort hat man zwar ebenfalls diesen Weg eingeschlagen, nur ist man noch nicht auf der Betriebssystemebene angelangt.

Damit die neuen Features nicht nur eine Aufzählung bleiben, biete ich Ihnen auch an, sich selbst einen Eindruck zu verschaffen. Kontaktieren sie mich gerne. Auf Wunsch stelle ich Ihnen einen Zugang zu der technischen Vorschauversion aus diesem Beitrag zur Verfügung. (bw)

 

Artikel-Quelle:

http://www.computerwoche.de/

2288364-sandisk-ixpand.jpg

SanDisk iXpand erweitert iPhone und iPad

Bei Apples Mobilgeräten der Serien iPhone und iPad lässt sich der Speicherplatz nur mit externen Lösungen erweitern. Hierfür und für den Datenaustausch zwischen Mobilgeräten und PCs hat SanDisk iXpand entworfen. Das Flash-Laufwerk mit bis zu 64 GB synchronisiert Bilder und Videos, verschlüsselt Daten und spielt Medien ab.

Mit rund 6,4 Zentimetern Länge, 3,7 Zentimetern Breite und 1,2 Zentimetern Höhe fällt der Datenträger relativ kompakt, jedoch breiter als die meisten USB-Sticks aus. Hinter einer Kappe verbirgt sich ein herkömmlicher USB-2.0-Anschluss für die Verbindung mit einem PC oder Mac. Der Lightning-Connector für kompatible Apple-Geräte ist an einer flexiblen Halterung auf der Flanke des Geräts angebracht. Laut SanDisk lassen sich die Anschlüsse nicht simultan nutzen, was schon durch die Anordnung erschwert wird.

 

Bei Verbindung mit PC oder Notebook fungiert iXpand als gewöhnlicher USB-Wechseldatenträger. Der integrierte Akku wird auf diesem Weg aufgeladen, ein USB-Netzadapter muss separat erworben werden. In Verbindung mit einem iPhone oder iPad wird zunächst die iOS-App iXpand Sync benötigt, die kostenlos im App Store herunterladbar ist. Wie der Name andeutet, erlaubt die App eine Synchronisation von Daten zwischen Mobilgerät und Flash-Laufwerk. Der wahlweise automatische oder manuelle Abgleich umfasst die Fotos und Videos, die im Camera Roll des Apple-Geräts enthalten sind. Ferner lassen sich beliebige Dateien manuell von Smartphone oder Tablet auf iXpand übertragen und umgekehrt. Eine LED-Anzeige zeigt aktive Dateitransfers und den Akkuladezustand an.

Überdies lassen sich diverse Video- und Audioformate direkt vom iXpand auf dem angeschlossenen Gerät abspielen, was ein manchmal notwendiges Konvertieren überflüssig mache. Die integrierte Share-Funktion erlaubt das Teilen von Medien über soziale Netzwerke wie Facebook und Twitter, eine Suchfunktion für Dateien ist vorhanden. Mittels der Funktion „Kontakte übertragen“ wird eine Sicherung der Kontaktdaten vom iPhone auf dem Flash-Laufwerk abgelegt, was beim Wechsel des Smartphones hilfreich sein kann.

Optional lässt sich ein Ordner einrichten, dessen Inhalte nach AES-Standard mit 128 Bit verschlüsselt werden. Hierfür muss der Nutzer ein Passwort sowie einen Hinweis auf dieses einrichten. Im Handbuch (PDF) wird ausdrücklich darauf hingewiesen, dass die verschlüsselten Daten bei vergessenem Passwort verloren sind. Eine Passwort-Recovery-Option existiert offenbar nicht.

Als Preisempfehlungen nennt der Hersteller 60, 80 und 120 US-Dollar für die Varianten mit 16, 32 oder 64 Gigabyte. Die Verfügbarkeit beschränke sich zunächst auf US-Händler, in Kürze soll der globale Vertrieb starten.

  SanDisk iXpand Flash Drive
Kapazitäten 16/32/64 GB
Anschlüsse Lightning, USB 2.0
Kompatibilität (mobil) iPhone/iPad mit Lightning-Anschluss und iOS 7.1+
Kompatibilität (PC/Mac) Windows XP/Vista/7/8, Mac OS X v10.5+, keine Treiber benötigt
Unterstützte Videoformate WMV, AVI, MKV, MP4, MOV, FLV, MPG, RMVB, M4V, TS
Unterstützte Audioformate MP3, AIF, WAV, AIFF, M4A, WMA, AAC, OGG, FLAC
Unterstützte Bildformate BMP, TIF, TIFF, JPG, PNG, GIF, XBM, ICO, TGA
Software iXpand Sync App für iOS
Verschlüsselung AES 128
Akku 3,7 Volt
Abmessungen 64,17mm × 36,78mm × 11,80 mm
Gewicht keine Angabe
Garantie zwei Jahre
UVP $59,99 (16 GB) / $79,99 (32 GB) / $119,99 (64 GB)

Originalbeitrag lesen:

www.computerbase.de/2014-11/sandisk-ixpand-erweitert-iphone-und-ipad/

Nickswriting über Online-Business | PahlawanWeb powered by WordPress