Month: Februar 2009

Twitter und Journalismus

Wenn jetzt irgendwo bedauernswerterweise ein Flugzeug runterfällt, werden Nachrichtenredaktionen hordenweise über Twitter herfallen, um zu sehen, ob es irgendwo ein Bild gibt. Das ist schon mal ganz interessant, weil es zeigt, was sich bei der Nachrichtenübermittlung verändert. Aber offenbar stürzen sich manche Journalisten auf Twitter, in der Hoffnung, dass der Dienst die (teuren) Agenturen ersetzen kann. Um dann total enttäuscht fest zu stellen, dass man nach der ersten Meldung nur wenig bekommt und die Meldungen zusätzlich widersprüchlich sind.

Anders kann ich mir die leicht enttäuschten Berichte heute in der taz und, etwas abgemildert, in der FAZ nicht erklären. Benjamin Webber schreibt in der taz:

So spannend es ist, unmittelbar nach dem Absturz auf Twitter zu verfolgen, was in Amsterdam passiert (oder zu passieren scheint), so wenig befriedigend ist die Twitter-Berichterstattung auf Dauer. Wer zwei Stunden nach dem Unglück eine Meldung einer großen Nachrichtenagentur liest, ist umfassend informiert über das, was in Amsterdam passiert ist.

In der FAZ schreibt Marco Dettweiler:

Doch was haben die Twitterer geschrieben? Sie teilten mit, dass in der Nähe des Flughafens Schiphol ein Flugzeug von Turkish Airlines abgestürzt sei und verlinkten per Kurz-URL auf eine Homepage. Was sind das für Seiten? Es sind Nachrichtenseiten: CNN Turkey, RTL Niederlande, BBC und so weiter.

Ich frage mich da schon, was man von einem Dienst wie Twitter erwarten soll. Hier spielen meist Augenzeugen (keine Journalisten) erste Meldungen ein, für die sie exakt 140 Zeichen haben. Was soll man in 140 Zeichen schreiben? Auch Agenturen bringen in den ersten „Blitz“ und „Eil“ Meldungen meist nicht mehr als eine kurze Info. Und natürlich ist es so, dass die Agenturen, ist die Maschinerie erst einmal angelaufen, Meldungen und Berichte besser zusammenfassen können, weil sie über mehr Ressourcen verfügen.

Twitter ist keine organisierte Agentur, da koordiniert niemand die User und sagt: „Du gehtst dahin, du dorthin, ich rufe den an.“ Twitter liefert „rohes Fleisch“, also die reine Meldung. Mehr nicht. Für alles andere sind die Agenturen und die Journalisten vor Ort zuständig, die dafür im übrigen auch bezahlt werden. Es ist ein großes Missverständnis zu glauben, dass Twitter den Journalismus, egal ob Online oder Print, auch nur ansatzweise ersetzen könnte.

Twitter ist ein Nachrichtenkanal, er liefert Meldungen schneller, weil sie von Leuten gemacht werden, die vor Ort etwas gesehen haben und eben da waren, bevor die Horde der Journalisten einläuft. Und ob die Meldungen wirklich stimmen, ist dann noch eine andere Frage. Nur weil irgendjemand irgendwas schreibt, muss es noch nicht wahr sein. Man muss eben selber sehen, wie und in welchen Kontext man Nachrichten einordnet. Das gilt sowieso immer und grundsätzlich für alle Nachrichten.

Journalisten sollten sich über Twitter freuen, denn hier bekommen sie Nachrichten schneller übermittelt, als es bisher der Fall war. Das gilt allerdings nur für die Länder, die über eine vernünftige technische Infrastruktur verfügen. Aus Afrika wird man derartige Meldungen und Bilder in den nächsten Jahren wohl nicht sehen. Interessant fand ich gestern allerdings noch, wie weit Twitter mittlerweile verbreitet ist. Es dauerte ja wieder einmal nur wenige Minuten, bis die ersten Bilder bei twitpic auftauchten.

Techcrunch & last.fm

Techcrunch, eine Seite die mich manchmal an die Bild-Zeitung im IT/Web-Bereich erinnert, hat sich am Freitag einen großen Bock geleistet, der ein Unternehmen allerdings unter massiv Druck gesetzt hat. Was war passiert? Da muss man etwas ausholen:

Das neue Album von U2 ist von Universal wohl aus Versehen geleakt worden. Wie üblich reichten auch hier ein paar Minuten aus, und das Ding landete in den verschiedenen Torrent-Netzwerken. So weit, so normal und die spannende Frage wäre hier vielleicht noch gewesen, ob das nicht Absicht war, denn auch die Industrie hat ja durchaus gelernt, dass ein wenig Buzz im Netz ja immer gut für die Verkaufszahlen ist. Ein Schelm, der Böses dabei denkt.

Die geleakten Songs tauchten auch in den Playlisten von Usern bei last.fm auf. Nur schnell zur Erklärung, wie das geht: last.fm bietet einen sogenannten Scrobbler an. Das Programm kann man installieren oder als Plugin zum Beispiel bei Mediamonkey einbinden. Hört man dann Musik auf seinem Rechner, wird der ID-Tag des Songs (Band/Titel) an last.fm übermittelt. Diesen Stream kann man dann wieder mittels eines kleinen Widgets in sein Blog einbauen, oder, so mache ich es, den RSS-Feed zu friendfeed schicken und darüber ins Blog einbinden. Was man sich jetzt merken muss ist nur die Tatsache, dass der gehörte Song im Profil auftaucht, und das bedeutet halt, das man es sehen kann. So tauchte also ein U2 Song in etlichen Playlists auf, den es noch gar nicht geben sollte.

Techcrunch berichtete dann am Freitag, dass Universal erzürnt über den Leak, nun Userdaten von last.fm eingefordert hätten, damit die User, die das Album offensichtlich illegal gezogen hatten, identifiziert werden können. last.fm hätte diese Daten auch weiter gegeben. Nun hat Techcrunch dafür keine Quelle, ausser wohl einer Mail, in der stand, dass ein Freund, der bei CBS (denen last.fm gehört) arbeitet, gesagt habe, dass CBS die Daten habe. Also ungefähr die „gut unterrichteten Kreise“, wie man das aus den Holzmedien von früher kennt.

Logischerweise ging es sofort rund, denn die Zutaten für einen sofortigen 180er Puls waren ja alle da. Böse, blöde Plattenfirma, die einen Fehler gemacht hat, plus bisher „gutes“ Unternehmen, dass Daten einfach weitergibt = Panik!!!!11einself!!!

Last.fm dementierte (fast) umgehend und hartnäckig, aber die Sache war schon in der Welt. last.fm User drohten die Kündigung des Accounts an, Verschwörungstheorien machten die Runde. Der Musikdienst konnte noch froh sein, dass die Meldung an einem Freitag Nachmittag rein kam, als in Europa schon alle in der Kneipe waren. Nur mal angenommen, die hätten das erst am Samstag bemerkt und es wäre kein Dementi gekommen – die Katastrophe wäre da gewesen, denn in 24 Stunden hätte sich das Ding verselbstständigt. Selbst jetzt, drei Tage später, findet man bei Twitter noch Äußerungen zu dem Thema, was zeigt, wie ernst die Sache ist.

Das Problem in diesem Fall ist nicht mal die unfassbar langsame Reaktion von Techcrunch, mit der sie auf die Dementis reagiert haben und die Sämigkeit, mit der man sich um ein „Sorry, war nicht ok“ bis heute rum drückt, sondern einfach, dass das Misstrauen die Woche eh geweckt war, nachdem Facebook ein Debakel mit den neuen TOS erlebte. Die Meldung fiel also in eine etwas aufgeheizte Stimmung.

last.fm macht die Kombination der Umstände zu schaffen. Das ehemals „gute“ Unternehmen aufgekauft werden, ist nicht neu, und noch weniger, dass es danach oft zu Problemen kommt. Bestes Beispiel ist flickr, die nach der Übernahme durch Yahoo erst alle flickr User zu einer Anmeldung bei Yahoo zwangen, und dann im Sommer 2007 in vorauseilenden Gehorsam eine strikte Jugenschutzpolitik eingeführt hatten. last.fm gehört nun schon länger einem großen Medienunternehmen, dass zufälligerweise auch Teil der Msuikindustrie ist. Warum sollten sich die Eigentümer nicht Daten nehmen können, die ihnen eh gehören, um sie den Kollegen von Universal zu geben?

Dass im Web 2.0 nicht mehr alles so ganz unschuldig scheint, ist keine Neuigkeit. last.fm mag in diesem Fall unschuldig sein, aber am Ende bleibt eben die Möglichkeit im Hinterkopf hängen, dass sie es machen könnten, und sei es nur deswegen, weil man sie gerichtlich dazu zwingt. Ich hätte mir aber auch eine stärkere Reaktion gewünscht. Man hat zwar alle Kommunikationskanäle genutzt, aber noch besser wäre es gewesen, wenn man auf der Startseite geschrieben hätte, dass man personalisierte Userdaten einfach nicht rausrückt. Bei dem leisesten Verdacht drohen die User schneller mit Liebesentzug, als man Lysistrata sagen kann. Und das wäre für Unternehmen, die als Geschäftsgrundlage nichts anderes haben, als die Userdaten ein Todesurteil.

Das man Unternehmen, die sich vom Paulus zum Saulus wandeln, abstraft, ist die eine Seite. Dass Problem ist aber vielschichtiger, denn es geht auch (mal wieder) darum, wann man über so eine Sache schreibt. Die meisten Newsseiten schielen mit eindreiviertel Augen auf die Google Position. Gerade bei „breaking news“ muss man extrem schnell sein, damit man bei Google auf der ersten Seite unter „News“ aufgeführt wird. Da geht es tatsächlich um Minuten. Der Automatismus ist also, dass man eine Meldung raus haut und dann mal schaut, was passiert. Eine Philosophie, die gerade bei Techcrunch verfolgt wird, aber in so einem Fall Misstrauen schafft, wo es bisher nicht angebracht war.

Was lernt man daraus?
1. Man sollte die ID-Tags von Musik, die aus nicht ganz astreinen Quellen stammt (Madonna – blabla – ripped by fucktheindustry) bearbeiten, wenn man den Scrobbler benutzt.
2. Sollte man sich überlegen, ob man den Scrobbler überhaupt einsetzen will. Gilt besonders in diesen Fällen.
3. Weniger Techcrunch lesen.
4. Das hübsche Wort „Medienkompetenz“ mal wieder aus der verstaubten Ecke kramen. Aber zu letzterem folgt die Woche noch ein eigener Artikel.

Berlin & Schnee & Nacht

berlin-snow_blog

Hier ganz groß.

Facebook will alles, auch meine Seele

So so, Facebook hat seine TOS geändert, und behauptet, dass jetzt alles was ich da veröffentliche ihnen gehört. Bis in alle Ewigkeiten und darüber hinaus. Da ich dort nur Sachen von außerhalb (Twitter usw.) einlaufen lassen, wäre ich dann schon mal gespannt, wie Facebook das dann eigentlich für sich vereinnahmen möchte. Sollen sie sich halt irgendwann in Zukunft mit Twitter um meine unfassbar relevanten Tweets streiten. Ähnlich wie bei Flickr, denen ich wegen ihrer dämlichen Form der Zensur, bzw. Restriktion der deutschen Accounts, den Pro-Account weg genommen habe, ist Facebook für mein Leben ungefähr so wichtig, wie 12Seconds oder Dopplr. Nette Sache, es gibt aber genügend Alternativen.

Was das Elend vieler Web 2.0 Läden damit auch klar macht. Das Problem ist nicht immer die Umsetzung einer guten Idee, sondern dass sie von vielen anderen Seiten geklaut wird. Flickr nervt? Geh ich halt zu Ipernity. Facebook dreht hohl? Kommuniziere ich halt wieder mehr über Xing, LinkedIn und Friendfeed. Twitter ist mir zu gierig? Dann halt identi.ca. Das Eis, auf dem viele Dienste stehen, ist ganz schön dünn, wie ja auch hier und da mal schon fest gestellt wurde. Zum Beispiel, als die User bei Digg Amok gelaufen sind, als dort Einträge verschwanden.

Ähnlich wie bei Flickr habe ich aber auch bei Facebook nicht den leisesten Zweifel, dass der Laden zu groß geworden ist, als dass er noch anfällig für eine User-Rebellion wäre. Flickr hat sich damals nicht mal geschüttelt, als man ein paar Tausend, oder auch nur Hundert, deutsche User verloren hat. Bei Facebook müsste die Zahl der Kündigungen, bzw. Stilllegungen, denn bei Facebook kann man seinen Account nicht vollständig löschen, also die Zahl müsste schon in die Millionen gehen, damit die etwas merken. Selbst eine lang anhaltende schlechte Berichterstattung in den Blogs könnte Facebook verkraften.

Aber wie gesagt – mir egal. Ich habe genug Alternativen und meine Tweets können sie haben, wenn Twitter nichts dagegen hat. Zur Not behaupte ich, es sei Kunst.

P.S. Ich lese nun hier und da eine gewisse Aufgeregtheit, die mit zugeschlagenen Türen und den Worten „Ich kündige“ einher geht. Kann man natürlich machen, aber trotzdem vorher überlegen, ob man es auch wirklich will. Mehr Sinn macht es allerdings der Gruppe People Against the new Terms of Service (TOS) beizutreten. Derartige Protestaktionen haben auch Digg damals in die Knie gezwungen.

35 kg Scheisse

Heiko Werning, den ich wirklich sehr schätze, und eine sehr verschrobene Geschichte. Ein Dramolett, ein Story, wie man sie sich kaum ausdenken kann, so irre sie auch klingen mag. Aber dass sie wahr sein muss, merkt man spätestens bei diesem Satz.

Jahrelang war sie praktisch alleinerziehend mit der Tochter in Leeds geblieben, während ihr Typ im philippinischen Regenwald die Klofrau für hysterische Riesenechsen gab, und nun war alles vergebens und seine Gemütsverfassung wohl recht zweifelhaft.

Soll noch mal einer sagen, Reptilien-Forschung sei langweilig.

Wat nu, Google Analytics?

Es tauchte in den letzten Wochen immer mal wieder in verschiedenen Blogs die Diskussion auf, ob der Einsatz a) des Spamvermeidungstool Akismet und b) von Google Analytics in Deutschland eigentlich erlaubt ist. Das Problem: beide Dienste sammeln IP-Adressen. Bei Askimet werden diese gesammelt, weil man einen Abgleich mit den IP-Spam Datenbanken macht. Problematisch sind hier wohl zwei Dinge. Zum einen die Weitervermittlung der Daten auf einen US-Server, zum zweiten weiß man ja auch nicht, ob die gespeicherten sauberen IP Daten bei Askimet auch wieder gelöscht werden.

Bei Google Analytics ist die Sache klar. Da werden sämtliche IP-Daten an Google weiter vermittelt und sie bleiben dort auch gespeichert. Man hat vor allem keinen Zugriff mehr auf die Daten, kann sie also nicht nach einer Zeit wieder löschen. Da Google Nutzerdaten, nach eigener Angabe, erst nach 18 Monaten löscht, ist das in mehrerer Hinsicht problematisch.

Ich komme deswegen drauf, weil im Datenschutz- und Informationsfreiheitsbericht des Landes NRW auf den Seiten 29 und 30 (Punkte 3.6 und 3.7) ausdrücklich noch mal darauf hingewiesen wird, dass sowohl die Erhebung der Daten, als auch die Weitervermittlung in die USA nach Telemediengesetz nicht gestattet ist. Da steht:

Ein derartiger Einsatz von Analysetools durch die Webseitenbetreiber ist nach dem Telemediengesetz nicht erlaubt. Er wäre nur bei ausdrücklicher Einwilligung der Nutzenden zulässig. Diese liegt in der Regel aber nicht vor.

Allerdings heißt es auch weiter:

Die Datenschutzaufsichtsbehörden sind im Gespräch mit Google Deutschland, dass die IP-Adressen der Nutzenden möglichst kurzfristig anonymisiert werden.

Keine Ahnung, was man da machen soll. Hier läuft Google Analytics nicht. Bei Askimet sieht die Sache noch komplizierter aus, da man selber die Daten ja gar nicht auswertet.

Ein bisschen schizophren finde ich die Argumentation ja auch, wenn man mit einem Auge auf die Vorratsdatenspeicherung schielt. Ein weiteres Problem ist die Störerhaftung. Die ist zwar nun auch umstritten, aber wenn jemand hier jemand was illegales in die Kommentare postet, ist dessen IP-Adresse meine einzige Chance, wie ich aus einer möglichen Störerhaftung raus komme. Zumindest, so lange sie nicht maskiert ist (Tor, Proxy etc.) Wenn ich keine Daten mehr speichern darf, muss ich theoretisch alle Kommentare moderieren. Oder muss ich dann in Zukunft eine Anzeige gegen „Unbekannt“ erheben, damit ein Staatsanwalt an die Vorratsdaten ran kommt? Mal völlig davon abgesehen, das damit die komplette Diskussionskultur im Netz hinüber wäre.

Die ganze Sache ist hochkonzentrierter Quatsch. IP-Daten werden gesammelt und kein Mensch kann überprüfen, ob dieser oder jener Adserver nicht doch alle Daten unmaskiert speichert, weiterleitet und auswertet. Ein Problem, mit dem der normale User dann wieder alleine gelassen wird.

Würde der Gesetzgeber es ernst meinen, müsste er von den Providern verlangen, dass die IP-Adresse maskiert wird. Also ähnlich einem VPN, in das man nach der Einwahl auf der Server des Providers weitergeleitet wird. Diese IP Adresse wäre dann nur bis zum Provider nachprüfbar, gleichzeitig aber mit der „echten“ verknüpft, auf die dann eine Behörde zur Not Zugriff hätte.

Ob man eine Verwendung von diesen und ähnlichen Diensten abmahnen kann? Ich bin kein Rechtsanwalt, aber es würde mich wundern, wenn das bei Privatpersonen geht.….ach man sollte sich ja in dem Bereich über nichts mehr wundern.