Content-Diebstahl verhindern – geht das?

Der aktuelle Fall von Content-Diebstahl hat selbstverständlich wieder eine ganze Menge (mehr oder weniger) hilfreiche Blogbeiträge nach sich gezogen, die vor Tipps und Tricks zur Sebsthilfe strotzen. Viele der Lösungsansätze befanden sich bereits in den Kommentaren der verschiedenen Blogebeiträge der Betroffenen und werden nun von den Resteverwertern zusammengefegt und als ultimative Lösung geyigged.

Aber was taugen diese Tipps denn tatsächlich? Schauen wir sie uns mal im einzelnen an:

RSS-Feed von vollständig auf gekürzt umstellen.
Nun, die Wirksamkeit dieses Tipps wurde durch den letzten Fall schon vorn vorherein in Frage gestellt. Auf der Seite befand sich einfach alles, was irgendwie nach Feed aussah, ob vollständig oder gekürzt, selbst wenn der Feed nur Überschriften enthält (wie bspw. der Feed vom heise newsticker. Für diesen „Feed“ hasse ich die Jungs sowieso). Den Dieb interessierte hier nicht die Bohne, wie viel von einem geklauten Feed am Ende tatsächlich bei ihm ankam. Es ging einzig und allein um IRGENDWELCHE Inhalte, die schnellstmöglich die Seite füllen und somit Google-Treffer en masse produzieren. Was man natürlich auch mit gekürzten Artikeln erreichen kann. Insofern greift diese Maßnahme überhaupt nicht, man verliert dadurch eher noch echte Leser.

Copyright-Hinweise im Feed.
Sicherlich kein vollkommen falscher Tipp, dennoch wirkungslos. Man findet so vielleicht das kopierende „Blog“ recht einfach, mehr bringt es allerdings nicht. Ich habe diese Hinweise schon seit langem im Feed, genützt hat es nichts. Womit ich aber keinesfalls das Plugin von Frank schlecht machen will, nicht missverstehen. Das Plugin ist hervorragend und leistet mir gute Dienste. Es schützt jedoch nicht vor Content-Diebstahl.

Den Dieb als Ar***loch bezeichnen.
Sehr wirkungsvoll! *hüstel* Ich hoffe, dieser Tipp ist als kleiner Gag am Rande zu verstehen… Bringen wird auch dieser nix, wie wir auch im letzten Fall nur zu deutlich gesehen haben. Die meisten Betroffenen haben sich kräftig aufgeregt über den Dieb, die Beiträge landeten auch fein säuberlich im Feed und letzten Endes auf der Seite. Und blieben dort, weil sie ja für den Dieb genau das waren, was er wollte: Content. Wie gesagt: Solchen Personen ist es in erster Linie erst einmal vollkommen egal, WAS im Feed steht. Hauptsache, da steht überhaupt irgendwas drin. Und die fleißigen Google-Bots juckt es am Ende auch überhaupt nicht, ob in dem Text den sie gerade spidern Beschimpfungen gegen den Betreiber der Seite stehen, die sie gerade spidern.

Den Content-Dieb per .htaccess aussperren.
Den einzig wirkungsvollen Tipp konnte man natürlich wieder bei einem Praktiker lesen: der Content-Dieb wird per .htaccess-Datei ausgesperrt und Ruhe ist. Klappt leider auch nicht in jedem Fall, in vielen Fällen aber durchaus.

Nicht nutzbar ist diese Variante beispielsweise für Blogger, die einen der bekannten Blog-Hoster wie wordpress.com nutzen. Dort hat man als Nutzer keinen Zugriff auf das Filesystem und kann somit solch eine Datei auch nicht anlegen bzw. bearbeiten. Allerdings weiß ich recht genau, dass die Betreiber in der Regel sehr sensibel reagieren, wenn man sie auf solche Fälle von Content-Diebstahl aufmerksam macht. Und meist wird solch ein Dieb dann recht zügig zentral ausgesperrt.

Sollte Euer Web-Hoster keine .htaccess-Unterstützung bieten, dann seid Ihr mit Eurem Blog definitiv beim falschen Hoster. Nein, keine Widerrede, das ist so. Ich kenne kaum einen Hoster, der das nicht mindestens auf Anfrage hin ermöglicht. Viele CMS und Blog-Tools verwenden für suchmaschinenfreundliche URLs zum Beispiel ebenfalls die .htaccess. Wenn Ihr also Euer Blog halbwegs ernsthaft betreibt, dann sucht Euch einen passenden Hoster, der eben auch das unterstützt.

Ebenfalls (fast) unmöglich ist die Nutzung von .htaccess -Direktiven auf Microsofts Webserver IIS. „Fast“ schreibe ich, weil es durchaus Plugins für den IIS gibt, die die Verwendung nachträglich ermöglichen. Zudem bietet der IIS von Haus aus andere Möglichkeiten für die Rechteverwaltung, die auch zum Aussperren von Content-Dieben genutzt werden können. Allerdings habe ich bislang wirklich verdammt wenige Blogs in freier Wildbahn gesehen, die in ASP geschrieben sind und somit einen IIS erfordern. Eine Ausnahme sind hier Sharepoint-Server, die Blogs mitliefern und zunehmend von diversen MS-Anbetern auch für richtige Webseiten (und auch Blogs) verwendet werden. Hier gäbe es wieder andere Möglichkeiten des Aussperrens.

Einen entscheidenden Nachteil erlebt man allerdings, wenn man Feedburner zur Auslieferung seines Feeds nutzt. Zugriffsbeschränkungen in der .htaccess-Datei auf meinem Blog helfen mir sehr wenig, wenn der Feed ganz woanders ohne Probleme abgesaugt werden kann. Feedburner sagt mir dann zwar ganz brav, dass jemand meinen Feed missbräuchlich verwendent, bietet mir jedoch keine Möglichkeit, dies zu verhindern. Mir fehlt hier noch die Funktion „F*ck this Asshole“. Die fehlt mir schon länger, deshalb habe ich diesen Vorschlag dort auch schon mal abgeliefert und er wurde zumindest dankend gelesen. Wenn in nächster Zeit ein paar weitere Anfragen diesbezüglich dort eintrudeln, dann wird er vielleicht sogar mal umgesetzt 😉

Wenn alles nichts hilft, was mach ich dann?
Nun, einige der Betroffenen im letzten Fall haben instinktiv in ihrem Ärger das richtige getan: Den Hoster angeschrieben, den/die Werbepartner angeschrieben und vor allem: Anzeige erstattet. Nichts tut so einem Dieb mehr weh, als zum einen die Grundlage entzogen zu bekommen und zum anderen plötzlich irgendwann Post von der Polizei im Briefkasten zu finden. Kennt man die Identität der Person, dann kann man in manchen Fällen öffentlich Druck machen, oft weiß man jedoch nicht bzw. nicht sicher, wer dahinter steckt.

Immer (zumindest nahezu immer) herausfinden lässt sich der Hoster der Seite, ebenso kann man anhand der eingeblendeten Werbung (was in den meisten Fällen der einzige Grund ist, warum solch ein Diebes-Blog überhaupt existiert) den Anbieter herausfinden, über den die Werbung geschaltet wird. Dem teilt man dann in einem Schreiben mit, wo man über ihn gebuchte Anzeigen so alles finden kann. Hilft das nichts (es soll ja auch Unternehmen geben, denen so etwas egal ist), dann klickt man mal auf die eine oder andere Anzeige und schreibt dann mal die Unternehmen an, die die Anzeigen gebucht haben. Spätestens dann wird der Druck auf den Anbieter etwas größer.

Man kann sogar recht fix dafür sorgen, dass die Seiten aus dem Google-Index verschwinden (sofern sie bereits dort angekommen sind). Geht der Traffic gegen Null, lohnt sich der ganze Mist für den Betreiber nicht mehr und es wird langweilig. Und Traffic wird derjenige in erster Linie über Google bekommen. Wie man die Seiten aus dem Index bekommt beschreibe ich hier besser nicht, so ganz fein sind die Methoden nicht.

Nun, und wie gesagt: Anzeige erstatten hilft sicherlich, in jedem Fall sollten sich Betroffene untereinander abstimmen, damit die einzelnen Dienststellen schnell über weitere Fälle informiert sind und von den verschiedenen Anzeigen erfahren. Wer das nötige Kleingeld oder eine sehr gute Rechtsschutzversicherung hat, kann unter Umständen auch noch einen Anwalt einschalten. Bringt aber erst dann etwas, wenn der Täter bekannt ist.

Ich denke das waren jetzt eine ganze Menge guter und weniger guter Tipps, jeder kann/wird/sollte selbst entscheiden, wie er sich in so einer Situation verhält. Wie ich mich verhalten habe war zum Teil hier in meinem Blog zu lesen. Ich will hoffen, nicht so bald wieder einen solchen Fall zu erleben, wissen kann man aber nie, wann es einen wieder trifft. Die Welt ist voller Spinner…

Tags: , , , , ,

  • mal noch ein wenig input zu .htaccess, also was den Hoster wordpress.com angeht, Matt hat sich bereits gegen das zentrale ausperren ausgesprochen, aber es wird ein Lösung geben und die ist denkbar einfach. Wenn eine .htaccess schreibbar im WP-Verzeichnis liegt, dann kan man sie mit dem eingebauten Dateieditor auch bearbeiten.
    Was Feedburner betrifft, das war die einzige Schwachstelle die mir Kopfbrechen bereitet, aber http://forums.feedburner.com/viewtopic.php?t=15182&sid=a10654109
    da steht ein freundliches Angebot von feedburner, was man bei Contentklau machen soll. Ergo die wissen von dem Problem und es scheint, die sperren dann für alle Feeds

  • Der Weg von wordpress.com klingt sinnvoll und gangbar für alle.

    Feedburner sagt aber irgendwie immer noch das Gleiche, was sie mir „damals“ in der Mail geantwortet haben und was eigentlich das gleiche ist, was ich zum Schluss gesagt habe: Finde den Hoster/Provider heraus und melde ihm den Vorgang. Was sie als Hilfe anbieten wollen klingt für mich danach, dass sie die automatisierte Suche nach dem ISP mit einbauen wollen, nicht, dass sie eine Sperrmöglichkeit integrieren wollen. Finde das so nicht ausreichend.

  • Im Endeffekt, wenn viele nach dem Feature fragen … oder? Im übrigen läuft da gerade eine Schlammschlacht, wegen meines „probloggerworld“ erzählt Schwachsinn, der hat die .htaccess ja für völligen Unsinn, aber weisst ja selbst hast ja kommentiert. ich muss mich indess als Linuxnazi und 24/7 Nerd, der Rene Kriest nicht mal das Wasser reichen kann beschimpfen lassen. Man haben die alle nen Ras ab, was solche idiotischen Aussagen, wie dynamische IP für Folgen haben können, kann man dann in den Kommentaren zur Empfehlung mit der .htaccess lesen, die Prinzess glaubt nämlci das im Internet tatsächlich Server so etwas haben.

  • Pingback: DonRivas.ch » Blogosspähre wird von Content-Klauer heimgesucht()

  • Es wird immer lustiger, er fängt an nicht genehme Kommentare wie „wie immer kaum inhalt verpackt in viel keywords zu löschen“, später hat er versucht Besucher die via Link von meinem Blog kamen auf sein Impressum umzuleiten statt auf den Artikel. Tja dank tinyurl gehts im moment wer weiss wie lange, ist derartiges Verhalten bei Kritiken unter A-Bloggern normal?

  • Lehn Dich zurück, hol Dir ein Bier aus dem Kühlschrank und genieß es 😉

    Nein, im Ernst: Derartige Maßnahmen sind geeignet, die eigene Glaubwürdigkeit und das Ansehen, was man sich hart erarbeitet hat, zu demontieren. Cleverer wäre gewesen: „Hey, stimmt, hast Recht. Hab mich da wohl voreilig auf ein paar falsche Aussagen anderer verlassen. Wollte halt schnell helfen…“ Damit hätte er sich definitiv besser verkaufen können.

  • geniessen? Dem seine getreuen SEO-Polluxe haben mich heute schon mehrfach auf verschiedenen Seiten Nazi genannt

  • OK, sowas ist ungenießbar, das ist Fakt. Ich hoffe derartige Kommentare wurden gelöscht?!

  • Bei Yigg mittlerweile ja, bei probloggerworld prangt es noch in den Kommentaren Linuxnazi

  • Hab grad mal durchgestöbert…die Nazi-Beschimpfung ist heavy, keine Frage. Finds allerdings auch unschön, dass Du Dich dann auf diese Ebene herab gelassen hast. Schade, echt. Du hast denen letztlich Futter gegeben, genau diese Schiene weiter auszubauen. Das hat Stoff für diesen unsäglichen Rassisten-Artikel gegeben der in meinen Augen nur einen Zweck hat: Dich noch mehr zu reizen.

  • Pingback: htaccess gegen Content-Diebstahl? « Seite, Spam, Feeds, Serps « Latha-Math.com()

  • Wenn man Content-Klau via Feeds verhindern will, dann wäre IMHO eine Registrierung via Email und die Verwurstung einer eindeutigen ID im jeweiligen personalisierten Feed denkbar und machbar. Damit kann man gezielt die Feeds sperren…

  • Pingback: Schutz gegen Content-Klau()

  • Jetzt bin auch ich betroffen und der Kerl nutzt auch noch ne anonymous Domain bei Godaddy, so komme ich nicht mal die IP des servers 🙁

    Ich werde wohl Google und Google Adsense anschreiben müssen 🙁

  • Wie kann man per htaccess Datei das Parsen bzw. Auslesen von Fremdscripten verhinden? Oder geht das nicht?

  • Nicht so ohne weiteres würde ich sagen.

    Wenn man bereits eine Seite identifiziert hat, die den eigenen Content abgreift, dann sperrt man die IP-Adresse dieses Server via htaccess und verhindert so, dass er weiterhin den Feed ausliest oder die Seite direkt parsed.
    Vorbeugend ist da aber nichts machbar.

    Eine nette automatisierte Methode ist zudem Spider-Trap. Damit sperrt man allerdings unter Umständen auch Crawler von Suchmaschinen aus, die sich nicht an die robots.txt halten…

  • Typo3 Freelancer

    Ein paar Tips finde ich ja sehr praktisch, wie z.B. den Teil mit der Beschimpfung. 🙂