Archiv für aktuelles

Wieder große Aufregung: Google scannt WLANs!

Der Bundesdatenschutzbeauftragte Peter Schaar hat wieder einmal eine Pressemitteilung veröffentlicht: Google-Street-View-Fahrten werden auch zum Scannen von WLAN-Netzen genutzt! Oh!

Aussage unter anderem:

„Nach gegenwärtigen Erkenntnissen ist davon auszugehen, dass neben der örtlichen Erfassung, dem Verschlüsselungsstatus der Geräte, der weltweit eindeutigen MAC-Adresse auch der vom Betreiber vergebene Name (sogenannte SSID) gespeichert wurde. Bei letzterer verwenden Privatpersonen nicht selten ihre Klarnamen oder andere auf sie hinweisende Informationen. Sowohl mit Blick auf die Benutzung des eigenen Namens als auch auf die Möglichkeit, die WLAN-Netze aufgrund ihrer örtlichen Lage Bewohnern von Häusern zuzuordnen, handelt es sich um die Erfassung und Speicherung personenbezogener Daten und deren Übertragung in die USA.“

Sacken lassen, kurz drüber nachdenken und – lachen.

Entschuldigung Herr Schaar, aber das, was sie da behaupten, ist einfach nicht korrekt. Aufgrund der Tatsache, dass ein WLAN-Netz im Umfeld von einigen Häusern empfangen werden kann, kann man nur eins erkennen: Dieses WLAN-Netz ist um Umfeld von einigen Häusern empfangbar. Mehr erst einmal nicht. Auf Details hierzu gehe ich weiter unten ausführlich ein.

Zudem kann ich die Behauptung, dass die Benutzung des eigenen Namens als SSID „nicht selten“ sei, aus eigener Erfahrung und Praxis nicht mal ansatzweise bestätigen. Ich habe eher festgestellt, dass dieser Umstand sogar „extrem selten“ ist. Viel wahrscheinlicher als den Namen des Besitzers als SSID eines WLANs wird man Namen wie beispielsweise „FritzBOX“ oder dergleichen antreffen.
Im übrigen muss ich sagen: Wer tatsächlich seinen Namen als SSID seines WLANs nutzt, kann an seinem Fenster direkt ein großes Transparent „Hier wohnt Peter Müller“ aufhängen. So viel dazu.

(Unter anderem) im Heise-Forum geht es nun wieder heiß her, es wird diskutiert und auf Google eingeprügelt, dass es eine wahre Pracht ist. Und dabei werden mit Unwahrheiten und technischem Halbwissen Szenarien konstruiert, dass einem schwindelig werden kann. Ich werde versuchen, aus mancherlei Geschwurbel mal die Inhalte heraus zu ziehen und die tatsächlichen Hintergründe zu erläutern.

Behauptung 1: Google kann anhand meiner SSID und der MAC-Adresse meines WLANs meinen Routern eindeutig mit den zu mir gesammelten Daten verknüpfen.

Das ist schlicht Unsinn. Was sehe ich denn, wenn ich mit einem WLAN-tauglichen Gerät mal nach verfügbaren WLANs scanne? Ich sehe die SSID, die MAC-Adresse und den Verschlüsselungsstatus. Das wars. Was kann ich mit diesen Daten nun anfangen?

Halte ich mich innerhalb des Empfangsbereiches dieses Netzes auf, kann ich versuchen, die (wahrscheinlich vorhandene) Verschlüsselung zu knacken. Dafür benötige ich aber nicht Google, dafür setze ich mich einfach irgendwo hin und lege los. Wenn ich für lau auf Kosten der WLAN-Betreiber ins Netz will, dann werde ich das an einem Ort tun, den ich bequem erreichen kann. Heutzutage gibt es sicherlich kaum einen Platz innerhalb einer Stadt, an der ich kein WLAN finden werde.

Aber kann Google diese Daten nun eindeutig einer Person zuordnen? Um es kurz zu machen: Nein.

Selbst wenn Google bereits jede Menge Daten über den Nutzer dieses WLAN-Routers gesammelt und gespeichert haben sollte, kann es diese Daten nicht mit der SSID und der MAC-Adresse eines WLAN-Routers in Verbindung bringen. Der Grund hierfür ist ganz einfach: Weder die SSID noch die MAC-Adresse des WLAN-Interfaces werden je von Google (oder jemand anderem im Netz) gesehen. Die SSID sieht noch Euer Notebook oder Handy, danach niemand mehr. Auch die MAC-Adresse des WLAN-Interfaces wird niemals an einen Anbieter eines Internetdienstes übertragen. Um das erschöpfend zu erklären, müsste ich jetzt das OSI-Modell erläutern und von Routing erzählen, wer da etwas mehr Hintergrundwissen erlangen möchte, mag einfach den Links folgen.

Wenn überhaupt eine MAC-Adresse Richtung Provider(!) übertragen wird, dann ist das die MAC-Adresse des Interfaces, welches direkt mit dem Provider verbunden ist. Beispielsweise das DSL-Interface. Spätestens beim Provider verschwindet diese Adresse aber wieder, sie wird für das Routing nicht mehr benötigt. Hier ist dann einzig Eure IP-Adresse des externen Interfaces interessant, die hat aber mit Eurem WLAN mal überhaupt nichts zu tun, eine Zuordnung ist unmöglich.
Und Google sieht von Euch: Eure IP-Adresse. Zuzüglich der Daten, die Ihr freiwillig im Internet preisgebt.

Behauptung 2: Google kann genau feststellen, wo sich mein WLAN-Router befindet und weiß dann, wo ich wohne.

Das ist gleich 2 mal Unsinn. Ich hatte eben bereits erläutert, warum Google (oder jemand anderes) ein WLAN-Netz keiner Person zuordnen kann (solange die betroffene Person nicht so selten dämlich ist, ihren Namen samt Anschrift als SSID zu verwenden).

Um aber den genauen Standort eines WLAN-Routers zu ermitteln, müsste man schon einen Schritt weiter gehen, als Google es tut. Technisch ist das ein alter Hut, das kann prinzipiell jeder mehr oder weniger genau mit ein paar Bauteilen aus dem Elektronik-Shop theoretisch problemlos tun. Aber Google tut es nicht, wie ich gleich erläutern werde.

Zur Standortermittlung eines Signals bedient man sich einer Peilung. Um möglichst verständlich zu erläutern, wie so etwas funktioniert, werde ich jetzt mal etwas „untechnisch“.

Nehmen wir an, auf einem Hügel steht ein Turm, den man aus großer Entfernung sehen kann. Um heraus zu finden, an welcher Position sich der Turm exakt befindet, gibt es 2 Möglichkeiten.
Variante 1: Ich nehme einen GPS-Empfänger, stelle mich in den Turm und sehe dann ganz genau, wo ich mich befinde und wo somit der Turm gebaut wurde.
Habe ich keine Möglichkeit, auch nur in die Nähe dieses Turms zu gelangen, bediene ich mich der Variante 2: Dazu nehme ich wieder den GPS-Empfänger in die Hand, dazu eine Karte. Nun bewege ich mich an einen Ort, von dem aus ich den Turm sehen kann. Hier schaue ich zunächst auf meinen GPS-Empfänger und sehe, wo ich mich befinde. Das zeichne ich in eine Karte mit einem Punkt ein. Nun ziele ich mit einem Kompass auf den Turm (dieses Zielen nennt man peilen) und merke mir die exakte Richtung. Diese kann ich nun als Linie, ausgehend von meinem aktuellen Standort, ebenfalls in meine Karte einzeichnen (die rote Linie in der folgenden Skizze). Wenn ich nun in die Karte schaue weiß ich: Der Turm befindet sich irgendwo auf dieser Linie.

Jetzt fahre ich einfach ein Stück um den Turm herum und wiederhole das Ganze, in der folgenden Skizze als grüne Linie dargestellt. Und nun stelle ich fest: Die beiden Linien kreuzen sich an einem bestimmten Punkt. Dieser Schnittpunkt ist der Standort des Turms. Für noch mehr Genauigkeit wiederhole ich das ein drittes Mal (blaue Linie). Dieses Verfahren nennt man übrigens auch Dreieckspeilung.

Übertragen wir das nun mal auf ein Funknetz wie beispielsweise ein WLAN, dann bedeutet das: Neben meinem aktuellen Standort muss ich zusätzlich auch noch die Richtung feststellen, aus der das Signal eintrifft. Genau das ist bei Funkwellen aber nicht ganz trivial, dafür gibt es spezielle Fahrzeuge. Die hierbei verwendete Spezialantenne ist drehbar und kann somit die Richtung, aus der das Signal am stärksten einfällt, feststellen. Damit wäre die Standortbestimmung eines WLAN-Routers/Accesspoint möglich. Nur: Das geht nicht im Vorbeifahren, hierfür muss sich das Fahrzeug eine gewisse Zeit an einem fixen Standort befinden, um genau einpeilen zu können.

Vergleichen wir nun den Peilwagen im obigen Bild mal mit einem dieser Fahrzeuge: Klick hier. Na, irgendwo eine vergleichbare Antenne zu finden? Eben, nix da.

Nun wird einfach zur Sicherheit behauptet: Braucht Google nicht, anhand der Signalstärke können die errechnen, wo sich der Sender befinden muss. Bis auf wenige Zentimeter genau. Tjaaa…ganz falsch ist das natürlich nicht. Aber eben auch nicht richtig.

Um anhand der Signalstärke an verschiedenen Orten errechnen zu können, muss man folgende Faktoren kennen: Mit welcher Leistung sendet der Sender das Signal überhaupt aus? Und wie breitet sich das Signal in der Umgebung aus?

Letzteres weiß man, wenn man sich auf einer freien Fläche befindet und irgendwo dort steht der Sender. Dann weiß man anhand der physikalischen Gesetzmäßigkeiten, wie stark das Signal in Entfernung zum Sender abnimmt. In einer Stadt ist genau das aber unmöglich zu bestimmen. Jedes Material schirmt die Signale unterschiedlich stark ab. Denkbar ist also, dass ein Signal in 2km Entfernung stärker zu empfangen ist als aus einer anderen Richtung in 100m Entfernung. Weil sich eben bei der 2. Messung ein Gebäude dazwischen befindet, welches die Signale wesentlich stärker abschirmt, als andere. Und schon sind die Messwerte nichts mehr wert.

Wir sehen also: Die Behauptungen sind wieder einmal Blödsinn. Nur, weil man irgendwo mal etwas aufgeschnappt hat, meinen nun manche, daraus ganz schlimme Szenarien konstruieren zu können. Ich denke ich habe gezeigt, dass da mehr Paranoia als Sachverstand im Spiel ist.

Wozu benötigt nun aber Google die Daten, die beim scannen der WLANs gesammelt werden?

Die Antwort ist ganz leicht: Die gesammelten Daten ermöglichen es, eine Standortbestimmung ganz ohne GPS durchzuführen.

Wenn ich an verschiedenen Punkten immer wieder überprüfe, welche WLANs mit welcher Signalstärke empfangen werden können, dann kann ich mit diesen Daten ziemlich exakt meinen eigenen Standort bestimmen, sofern exakt diese Informationen zuvor gespeichert wurden. Jeder Punkt innerhalb einer Stadt hat ein gewisses Schema, eine Art Fingerabdruck. Ich stehe beispielsweise mit dem Notebook vor meiner Haustür und stelle fest: Hier empfange ich die folgenden 8 WLAN-Netze, jedes mit einer ganz bestimmten Signalstärke. Jetzt gehe ich 50 Meter weiter und stelle fest: Es hat sich etwas geändert. Die Signalstärke der einzelnen Netze ist anders, 2 empfange ich hier nicht mehr, dafür ist ein neues hinzu gekommen. Speichere ich diese beiden Ergebnisse zusammen mit meiner aktuellen Position ab, kann ich später erkennen, wann ich mich wieder an dieser Position befinde. Ich kann also ziemlich exakt orten, wo ich mich gerade aufhalte, unabhängig davon, ob ich einen GPS-Empfänger besitze oder nicht. Ich kann allerdings nicht feststellen, wo sich die Sender befinden. Ich weiß nur, wo ich sie empfangen kann.

Dieses Verfahren ist nicht mal neu. Diverse Smartphones nutzen es bereits seit Jahren, allen voran das iPhone. Huch, Apple macht das auch? Dann kann es ja nicht schlimm sein… *hust

Schlimm finde ich an dieser Stelle, dass Peter Schaar sich nicht mal vernünftig informiert, bevor er eine solche Pressemitteilung verfasst. Mindestens seit 2008 ist bekannt, dass die Streetview Cars auch die Handy- und WLAN-Netze erfassen. Daran war nix „heimlich“, wie man nun behauptet. Und genau mit solchen Aktionen schadet Herr Schaar in meinen Augen dem Datenschutz wesentlich mehr, als er ihm nützt. Er sorgt dafür, dass Datenschützer mehr und mehr den Ruf von Paranoikern bekommen, die außer Panik verbreiten nichts können. Und das ist bitter.

Erstaunt hat mich allerdings, dass ausgerechnet der Spiegel in diesem Zusammenhang tatsächlich mal Sachverstand bewiesen hat und nicht einfach auf den Panikzug aufspringen wollte. Kreuz im Kalender.

Update: Ah, Basic Thinking springt auf den Panikzug auf und erzählt uns etwas von „unerlaubterweise„. Jungs, Jungs, Jungs… Euch hätte ich etwas mehr Recherche zugetraut. Siehe oben: Das ist seit 2008 bekannt, also alles andere als eine plötzliche Überraschung.

Noch mehr Panikmache und technischen Unsinn findet Ihr übrigens hier, hier, hier, hier und hier (für die, die drauf stehen), wesentlich mehr Augenmaß zeigen hingegen z.B. Telemedicus und zuihitsu.

Tags: , , , , , , , ,

Flightradar24: Wieder mehr los über Europa (Update)

Flightradar24.com erlaubt es ja wunderbar, in Echtzeit Flugzeuge über einer Google-Map zu verfolgen. Vergleichbar mit Air Traffic, was ich bereits vorgestellt hatte, nur eben für ganz Europa.

Gerade in den letzten Tagen wird bei Flightradar24 sicher die Hölle los gewesen sein, konnte man hier doch wunderbar verfolgen, wie wenig am Himmel unterwegs war dank der Aschewolke. Heute Morgen waren schon wieder einige Maschinen über Europa unterwegs, über Großbritannien aber nach wie vor nichts. Jetzt, kurz vor 16Uhr, sieht man doch wieder ein paar Maschinen über den Süden der Insel hinweg fliegen (siehe Screenshot).

Leider habe ich keine Screenshots von Flightradar24 der letzten Tage zum Vergleich, hab ich komplett verpeilt. Screens aus der Zeit vor dem Ausbruch des Eyjafjallajokull hab ich erst Recht nicht. Schade, wäre sicher mal interessant gewesen, die Unterschiede unmittelbar zu sehen.

Update: Im Gegensatz zu mir hat mein Leser Robert Schaefer in der Zeit des Flugverbots einige Screenshots gemacht und mir diese zur Verfügung gestellt. Vielen Dank dafür!

16.04.2010 um 20:41Uhr: Nur vereinzelte Maschinen über den Alpen.

Am gleichen Tag wie mein Screenshot (20.04.) entstand morgens bei Flightrader24 dieses Bild:

Am Nachmittag des gleichen Tages kehrte dann schon wieder etwas Normalität in den Luftraum zurück und der Screenshot ist wesentlich gelber:

Wie sich das Ganze für die (verhinderten) Reisenden darstellte dokumentiert recht deutlich der folgende Screenshot vom 16.4., der die Liste der Abflüge des Flughafens Berlin Schönefeld zeigt.

Schön dokumentiert, vielen Dank noch einmal dafür!

Tags: , , , ,

WordPress Caching Plugins: W3 Total Cache und Hyper Cache

WordPress ist gelegentlich nicht wirklich sehr schnell bei der Auslieferung von Seiten. Das hängt unter anderem auch mit der Vielzahl von Datenbankabfragen zusammen, die WordPress pro Aufruf durchführt. Zu einem Problem kann das werden, wenn viele User gleichzeitig ein WordPress-Blog aufrufen und Speicher sowie Prozessorkapazität auf dem Host arg begrenzt sind. Verschärft wird das Problem durch Plugins und Widgets, die gelegentlich auch noch gern Scripte von anderen Seiten nachladen und somit die Ladezeit noch zusätzlich verlängern. Vom Speicherverbrauch dieser Extras mal gar nicht zu reden…

Optimierungsmöglichkeiten gibt es hier einige, überflüssige Gimmicks und Plugins zu entfernen wäre eine Möglichkeit, die man als erstes in Angriff nehmen sollte, wenn die Ladezeit des Blogs zu lang wird. Aber auch Caching trägt einen guten Teil zur Beschleunigung einer Seite bei.

Ich habe hier auf meinem Blog seit 3-4 Wochen das Caching-Plugin W3 Total Cache im Einsatz. Der Geschwindigkeitszuwachs beim laden der Seite war deutlich spürbar. Die Ladezeiten meines Blogs lagen laut Webmaster Tools vor dem Einsatz des Plugins bei teilweise bis zu 8-10 Sekunden, vor allem bei Einträgen mit vielen Kommentaren. Hier hatte ich zunächst die Paged Comments aktiviert (sieht man ja bereits seit einiger Zeit) und so ca. 1 Sekunde Ladezeit gewonnen. Mit dem Plugin ging die Ladezeit der langsamsten Seiten dann herunter auf unter 4, teilweise unter 3 Sekunden. Ziemlich flott, wie ich finde. Weitere Optimierungsmöglichkeiten würde ich jetzt noch am Template sehen, hier kommt aber möglicherweise demnächst ohnehin etwas ganz anderes.

Vor 2 oder 3 Tagen hatte ich ein weiteres Caching-Plugin für WordPress getestet: Hyper Cache. Und ich fand, dass die Seite noch einmal spürbar flotter geladen wurde. Zumindest in Chrome, den ich ja einsetze. Subjektiv war die Seite richtig schnell, messbar war es noch nicht, da die Webmaster Tools ja immer mit ein paar Tagen Verzögerung die Wirkung einer Maßnahme anzeigen.

Leider wurde mir allerdings gestern gemeldet, dass mein Blog „völlig zerschossen“ sei. Der erste Check mit Chrome brachte nix, sah alles toll aus, keine Probleme zu sehen. Doch dann versuchte ich es mit dem Firefox und meine Seite sah so aus (was möglicherweise einigen von Euch ebenfalls aufgefallen ist):

Schick, oder?

Nach einer ersten Schrecksekunde fiel mir auf: Moment, exakt so sehen die Cache-Files aus, die Hyper Cache auf der Platte ablegt. Also Hyper Cache deaktiviert, erneut geprüft und alles war wieder schick.

Bisher habe ich noch keine Lösung gefunden, ich hab noch keinen Schimmer, warum Firefox die Seiten nicht darstellen kann, wenn Hyper Cache aktiviert ist. Ich hoffe, hier noch eine Lösung finden zu können denn ich empfand die Beschleunigung durch Hyper Cache doch noch etwas besser als die, die mir W3 Total Cache liefert. Die ist durchaus auch nicht schlecht, keine Frage, aber Hyper Cache war eben subjektiv einen Touch flotter. Was nur leider nichts bringt, wenn die Browser die Seiten anschließend nicht mehr darstellen können.

Tags: , , , ,

Ubisoft blamiert sich weiter mit DRM in Assassins Creed 2

Die Ankündigungen von Ubisoft waren gewohnt vollmundig: Das neue DRM aka Kopierschutz (oder besser: Spielverhinderer) für „Assassins Creed 2“ (Partner Link) und „Silent Hunter V“ (Partner Link) sollte Raubkopien verhindern und natürlich für Spieler vollkommen problemlos und transparent mit Ubisoft-Servern über die Internetverbindung kommunizieren. Sämtliche Spielstände sollen auf den Servern gespeichert sein, was Raubmordkopierterroristen davon abhalten soll, eine gecrackte Version zu spielen.

Exakt die Notwendigkeit einer Online-Verbindung während des Spielens stieß bereits im Vorfeld vielen sehr unangenehm auf und es hagelte Kritik an Ubisoft. Zudem wurden unmittelbar nach Bekanntgabe Befürchtungen laut, dass genau dieses DRM möglicherweise für einige Probleme sorgen könnte.

Und so kam es natürlich auch. Seit Donnerstag ist das Spiel im Handel und seit Samstag können bekanntermaßen ziemlich viele Spieler nicht spielen, das liest man ja schon seit dem Wochenende. Von Anfang an soll es extreme Wartezeiten gegeben haben, Zustände, wie man sie eigentlich nur von Release-Tagen der MMORPGs her kennt. Laut Ubisoft betraf (oder besser: betrifft) dies nur 5% der Spieler, aber wer kann das schon nachprüfen. Nachprüfbar ist lediglich, dass auch heute nach wie vor viele davon betroffen sind und das gekaufte Spiel nicht spielen können. Und vielfach liest man (berechtigten) Ärger darüber, dass ehrliche Kunden wieder einmal die dummen sind. Denn Besitzer kopierter Versionen können problemlos spielen. Die DDOS-Angriffe, die als Grund für die Server-Probleme angegeben werden, gehen ihnen meilenweit am Allerwertesten vorbei. Welch Wunder.

Das größere Wunder und neu ist jedoch, dass Ubisoft heute noch behauptet:

„Fünf Tage nach Release von Assassins Creed 2 ist noch keine ‚gecrackte‘ Version verfügbar, was die Wirksamkeit dieses Systems unterstreicht.“

Man scheint zu schlafen. Denn selbst ich weiß, dass seit mindestens dem 6.3. bereits gecrackte Versionen im Umlauf sind und ich habe weder danach suchen müssen noch einschlägige Seiten besucht. Derartige Informationen verbreiten sich eben recht zügig, nur bei den Publishern scheinen sie nicht anzukommen. Irgendwie.

Würde ich diese Art von Spielen mögen (ich zocke nun mal wenn überhaupt eigentlich in erster Linie MMORPGs und Schleichspiele sind garnix für mich), dann wäre ich sicherlich ebenfalls extrem verärgert. Denn das einzige, was Ubisofts neues System wirklich wirksam zu verhindern scheint, ist der Spielspaß, Kopien kann es nicht mal ansatzweise verhindern. Aus irgendeinem Grund sind die Publisher vollkommen immun gegen die Erkenntnis, dass dieser ganze Wettstreit mit denen, die sich die Spiele nur kopieren wollen, letztlich zu nichts führt. Kein System ist unknackbar und am Ende sind immer die zahlenden Kunden die Dummen. Und diese Erkenntnis ist eigentlich nicht neu, sondern schon seit so vielen Jahren bekannt. Zu meinen Amiga-Zeiten war diese Erkenntnis schon „veraltet“, wer es bis heute nicht begriffen hat, scheint irgendwie eine Menge verpasst zu haben.

In Kürze erscheint ein weiteres Spiel von Ubisoft, welches dieses neue DRM im Schlepptau mitbringt: „Die Siedler 7„. Und ich muss gestehen, dass ich tatsächlich mal wieder reinschnuppern wollte. Ich habe damals bei „Siedler 3“ mitgewirkt und demzufolge verbindet mich doch so ein wenig mit diesem Spiel. Nach langer Abstinenz war ich ein wenig neugierig, aber das hat sich zumindest für mich nun erledigt. Ich werde es mir nun doch nicht kaufen, ich habe keine Lust, mich in die Reihen derjenigen einzureihen, die dann ihren Frust in den Foren ablassen müssen. Und vielleicht ist das auch ganz gut so, denn eigentlich hab ich im Moment ohnehin keine Zeit zum zocken.

Tags: , , , , , ,