Fairer Handel in der IT? Der Weg zur fairen Maus

Ich achte bereits seit einiger Zeit darauf, insbesondere bei Kaffee und Kakao/Schokolade, dass die Produkte aus fairem Handel stammen. Nicht selten erfolgt der Anbau leider zu Hungerlöhnen, unter menschenunwürdigen Bedingungen und mit Kinderarbeit.

Gleichzeitig besitze ich Tablet, Smartphone, Laptop und eine ganze Menge Zubehör. Wir kennen sicher alle noch die Schlagzeilen rund um die menschenunwürdigen Arbeitsbedingungen beim IT-Zulieferer Foxconn. Auch beim Abbau der für die Produktion benötigten Seltenen Erden, sind Menschenrechte oft zweitrangig. Und unser Elektroschrott wird den Menschen in Asien und Afrika einfach vor die Füße gekippt.

Das Projekt Nager IT hat sich daher zu Recht folgende Frage gestellt:

Es gibt fairen Tee, fairen Kaffee, fairen Kakao, faire Kleidung, faire Fußbälle, sogar faire Grabsteine und faire Eheringe. Aber was ist mit Computern, Smartphones und deren elektronischem Zubehör?

Bei der Frage allein ist es aber nicht geblieben, sondern es wurde versucht eine faire Computermaus zu entwickeln. Dies ist nur zum Teil gelungen, aber es scheint ein guter Anfang zu sein, der auf mehr hoffen lässt. Wo es noch hakt, erklärt das Projekt unter „Umsetzung“.

Während die faire Herstellung von z.B. Verpackung, Schrauben und Gehäuse gelang, ist die Herkunft der Rohstoffe noch sehr schwer zu überblicken und es ist daher von unfairen Arbeitsbedingungen auszugehen. Die Nachfolgemodelle sollen jedoch weitere Fortschritte in Sachen Fairness machen. Bestellen lässt sich die Maus hier.

Update: Wie ich gerade feststelle, gab es auf dem 29C3 einen sehr interessanten Vortrag zu fairer IT:

The Web is the Social Network

Wir müssen monolithische, zentralisierte Social Networks hinter uns lassen. Sie widersprechen dem Gedanken der informationellen Selbstbestimmung und sind gleichzeitig anfällig für Zensur und Manipulation. Soziale Netzwerke sind nicht das Web. Sondern das Web ist ein großes, dezentrales soziales Netzwerk – wenn wir unsere Daten befreien und uns unabhängig von großen Anbietern vernetzen.

Die Einzäunung des Webs

Das World Wide Web ist eine ziemlich coole Erfindung. Wir alle können mitmachen, indem wir unsere Inhalte beisteuern. Diese Inhalte lassen sich untereinander verlinken. Die Links sind das, was das Web zu einem Web macht.

Die Idee des Webs, als miteinander durch Links verwobene Inhalte wird zunehmend durch Social Networks pervertiert. Wer zum Beispiel bei „Wer-kennt-wen“ auf einen externen Link klickt, bekommt folgende Warnmeldung präsentiert:

„Achtung, Sie verlassen jetzt die heile Welt von wer-kennt-wen.de“

Du hast gerade auf einen Link geklickt, mit dem Du die Seiten von wer-kennt-wen.de verlässt.

Es lässt sich beobachten, wie Social-Network-Dienste zunehmend das Web vereinnahmen, statt daran zu partizipieren.

Facebook und Co. versuchen die Nutzer möglichst lange auf der eigenen Website zu binden. Schließlich verdienen die Betreiber durch zielgerichtete Werbung eine Menge Geld. Je länger die Nutzer sich dort aufhalten, desto mehr erfahren die Betreiber über den Nutzer, desto zielgerichteter kann die Werbung werden und desto mehr Geld kann man damit verdienen.

Bei Facebook finden sich keine derart skurillen Warnmeldungen, es vereinnahmt das Web auf eine subtilere Art und Weise. Facebook versucht die „Links nach draußen“ so lange wie möglich innerhalb der Plattform zu halten. Fotos, Videos und die ersten Zeilen von Artikeln können betrachtet werden, ohne die Plattform zu verlassen. In Form von „Interessen“ stellt Facebook oftmals ganze Wikipedia-Artikel in seiner Plattform ein. Die  Möglichkeit zu „Liken“ und zu „Sharen“ machen die Rückkehr zu Facebook attraktiv, wenn doch einmal ein Link hinaus führt.

Facebook macht uns das Leben bequem. Es dient uns als Kommunikationszentrale, als News-Dienst, als Möglichkeit interessante Inhalte und Menschen zu finden. Daran ist nichts verwerflich.

Jedoch geht schleichend die ursprüngliche Idee eines dezentralen Webs aus miteinander verlinkten Inhalten verloren. Wer auf Facebook und Co. Texte und Bilder teilt, der veröffentlicht diese nicht im Web, sondern auf einer geschlossenen Plattform. Plattformen, die das Web so sehr vereinnahmen, dass „Digital Natives“, die mit Social Networks groß geworden sind, oft gar nicht mehr den Unterschied zwischen Facebook und dem World Wide Web (geschweige denn dem Internet jenseits des WWW) kennen. Facebook ist das zentrale Element der Internetnutzung geworden.

Diese Vereinnahmung geht in Form von „Social Plugins“ auch über die Grenzen der eigentlichen Plattform hinaus. Man könnte meinen, dass sich Facebook auf diese Weise dem Rest des Webs öffnet. Es ist jedoch so, dass sich der Rest des Webs auf diese Weise gegenüber Facebook öffnet. Facebook diktiert die API, d.h. die Art und Weise wie die Webdienste und andere Programme mit der Plattform kommunizieren.

Und hier sind wir beim Kern des Problems angelangt: Die Dienste kommunizieren mit Facebook. Sie kommunizieren nicht untereinander. Zumindest ist die Kommunikation zwischen anderen Webdiensten marginal im Vergleich zum Einfluss des Social Networks und im Vergleich zu dem Social Web wie es sein könnte (dazu gleich mehr).

Das heutige Web ist gar nicht sozial. Dies hat Jeff Sayre sehr schön in seinem Artikel „The Web is Not (yet) Social“ beschrieben:

The Web is currently not social. It’s the metaspace analogy of meatspace nightclubs. It’s filled with private social silos, which are antithetical to the Web’s vision. Each private social island is an internal network consisting of tightly-controlled infrastructure that offers its own vision of how humans should connect and interact.

Wer nicht auf Facebook ist, kann meine dort eingestellten Bilder nicht sehen, sich nicht digital mit mir „anfreunden“ oder meine Status-Updates kommentieren. Was, wenn sowohl meine Freunde bei Facebook, als auch meine Bekannten bei wer-kennt-wen die Bilder sehen sollen? Dann muss ich die Fotos zweimal hochladen – oder ich muss mich für eine Plattform entscheiden.

Letzteres ist das, was tatsächlich passiert. Nutzt eigentlich noch jemand wer-kennt-wen? Und gibt es die VZ-Netzwerke noch?

Den eingangs erwähnten Weiterleitungs-Hinweis sehe ich immer seltener. Viele meiner Freunde kommunizieren nur noch über Facebook. Manche machen sich die Mühe, mehrere Accounts zu pflegen, aber es werden immer weniger. Die Accounts in anderen Netzwerken verwaisen, was weitere Nutzer bewegt, das entsprechende Netzwerk zu verlassen.

Ein Teufelskreis – jedoch einer, den die Netzwerke selbst zu verantworten haben. Im Wettbewerb untereinander abgeschotteter Plattformen können nur einige wenige gewinnen. Doch der Dumme ist am Ende der Nutzer. So bequem uns Facebook das Leben auch machen mag: wir erleben gerade eine Monopolisierung & Zentralisierung unserer Kommunikation und begeben uns in Abhängigkeit einiger weniger, großer Anbieter.

Diese Zentralisierung öffnet der Manipulation und Zensur Tür und Tor. Sie entmündigt uns Nutzer. Ich habe die Probleme bereits in einem anderen Artikel erörtert. Dass es sich dabei nicht um bloße Theorie handelt erläutert ein Beispiel von Sascha Lobo:

Facebook zum Beispiel kontrolliert über detaillierte Algorithmen, welche Inhalte die Nutzer zu sehen bekommen. Laut qualifizierten Schätzungen sind es nur etwa zehn Prozent der von den Kontakten eingestellten Inhalte – sonst wäre es auch zu viel. Aber welche zehn Prozent sind das, und wie genau werden sie ausgewählt? Darüber schweigt Facebook weitgehend.

Heutige Soziale Netzwerke nehmen mir die Möglichkeit selbst bestimmen zu können, was mit meinen persönlichen Daten geschieht, wer sie sehen kann und wer nicht. Die Datenschutzeinstellungen von Facebook simulieren dieses Recht nur. Die Daten liegen auf Servern des Unternehmens und sind offen für es zugänglich – ganz egal wie restriktiv ich meine Einstellungen setze.

Echte informationelle Selbstbestimmung sieht anders aus. Ein echtes „Social Web“ sieht anders aus. Wir müssen monolithische, zentralisierte Social Networks hinter uns lassen und uns unabhängig von großen, zentralisierten Anbieter vernetzen. Das World Wide Web bietet alles, was wir dazu brauchen. Es gilt nun, den Kerngedanken des Webs mit der Idee der sozialen Netzwerke zu verbinden.

Nächste Seite: Befreiungsschlag

Offene Daten verlinken

Ich betrachte Open Data als ein wesentliches Fundament eines transparenten Staates. Weil offen allein aber nicht ausreicht, sondern wir Daten miteinander verlinken müssen, um ihr volles Potential auszuschöpfen, habe ich ein eigenes Blog, das sich speziell mit dem Thema „Linked Data“ befasst.

Dank der SIGINT 2012 gibt es darüber hinaus nun eine audiovisuelle Einführung in das Thema. Die Vortragsvideos, darunter mein Vortrag „Linked Open Data – Warum ‚open‘ nicht genug ist und wir Daten verlinken müssen.“ sind inzwischen online. Viel Spaß beim Ansehen!

Übersicht aller SIGINT 2012 Vortragsvideos

FrOSCon mit Open-Data-Schwerpunkt

Die jährlich stattfindende „Free and Open Source Software Conference“ (FrOSCon) widmet sich dieses Jahr schwerpunktmäßig  den Themen Big Data, Open Data und Digital Privacy.

Ich habe ohnehin seit längerem vor, die Konferenz mal zu besuchen. Bei den diesjährigen Themenschwerpunkten konnte ich nicht widerstehen auch gleich selbst einen Vortrag einzureichen.

Bereits auf der SIGINT habe ich über „Linked Open Data“ referiert. Auf der FrOSCon werde ich ebenfalls in das Thema einführen, dabei aber einen zusätzlichen Fokus auf die Software-Entwicklung setzen. Ich möchte Open-Source-Entwicklern verdeutlichen, dass es nicht nur vorteilhaft, sondern auch überaus einfach ist, Linked Open Data zu nutzen und zu veröffentlichen.

Die FrOSCon tagt am 25. und 26. August 2012 in St. Augustin bei Bonn. Alles Nähere erfahrt ihr auf der offiziellen Website.

SIGINT 2012: Vorläufiger Fahrplan

Eine Vorabversions des Programms der SIGINT 2012 wurde inzwischen bekannt gegeben. Ich freue mich sehr, dass auch mein Vortrag zum Thema „Linked Open Data“ angenommen wurde. Aus der Vortragsbeschreibung:

Open Data ist auf dem Vormarsch. Doch es reicht nicht CSV-Daten in ein Zip-Archiv zu packen und zum Download anzubieten. Wenn wir die Stärken von frei verfügbaren Behördendaten voll ausschöpfen wollen, dann müssen wir ein „Web of Data“ schaffen, in dem Rohdaten miteinander verlinkt sind, so wie im WWW HTML-Seiten miteinander verlinkt sind. Der Vortrag stellt das Konzept „Linked Data“ vor, erklärt, wie wir zum „Web of Data“ beitragen können und erläutert das gesellschaftliche Potential von Linked Open Data.

Der Vortrag wird nach derzeitigem Stand am Tag 2 der Konferenz, Samstag,  19.05.2012 um 19 Uhr stattfinden.

Besonders gespannt bin ich auf dem Vortrag „The Semantic Web – Raising of the Dead?“ von Carina Haupt, welcher sich im gleichen thematischen Umfeld bewegt, aber auch näher auf Technologien und Konzepte wie RDF, Triple Stores, Reasoning and SPARQL eingehen wird, während ich den Bezug zur Open Data Bewegung herstelle.

Als Verfechter von dezentralen sozialen Netzwerken freue ich mich auch sehr auf die Vorstellung des Projekts „Social Swarm“, mit dem ich mich schon seit einiger Zeit mal näher beschäftigen wollte.

Darüber hinaus wird wird die Konferenz aber vermutlich wieder so interssant, dass man sich kaum entscheiden kann, welchen Beitrag man als nächstes besuchen soll. Ganz zu schweigen von den vielen tollen Menschen die man dort trifft.

Die SIGINT geht von Freitag, 18. Mai bis Sonntag, 20. Mai 2012. Tickets bekommt ihr hier. (Achtung: Vorverkauf nur noch bis 26.04, beeilt euch!) Wir sehen uns in Köln!

Dezentralisierung als Gegenmaßnahme

In „Die Probleme der Zentralisierung“ habe ich geschildert, welche Probleme ich in zentralisierten Infrastrukturen sehe. Ich möchte im Folgenden zeigen, wie Dezentralisierung diesen Problemen entgegenwirkt.

Noch einmal zur Klarstellung: Natürlich ist es wichtig, dass Zensur und Massenüberwachung gesetzlich verboten sind, aber das allein reicht nicht aus. Überwachung und Zensur müssen bereits durch das Wesen der Infrastruktur so stark wie möglich erschwert werden. Die gesetzlichen Rahmenbedingungen können sich ändern und in den letzten Jahren geht die Tendenz ganz klar in Richtung mehr Überwachung und Einschränkung von Informationen und Kommunikation. Besonders dann, wenn die politischen Garantien wegfallen, braucht eine Demokratie freie Kommunikation um zu überleben (oder ggf. neu aufzukeimen).

Wir brauchen dezentrale Systeme auf allen Ebenen – vom physikalischen Netzwerk bis hin zu Diensten im Web – um die im letzten Artikel beschriebenen Probleme zu vermeiden, oder zumindest abzumildern.

Schauen wir uns die Probleme noch einmal im Einzelnen an, und betrachten, wie dezentrale Systeme diesen entgegenwirken können:

1) Die Kommunikationsvorgänge sind abhängig von der Infrastruktur des Anbieters

Dezentrale Systeme besitzen keinen „Single point of failure“, dessen Ausfall das Gesamtsystem lahmlegen würde. Es gibt keine zentralen Abhängigkeiten. Ein Ausfall von Teilen des Systems kann das Gesamtsystem zwar ggf. beeinträchtigen, jedoch nicht zum Erliegen bringen, da die verbleibende Infrastruktur den Ausfall kompensieren kann. Eine Abschaltung durch Dritte, zum Beispiel den Staat, ist ebenfalls nicht möglich, sofern die Verteilung breit genug ist.

Beispiel aus der Praxis: Bei Peer-to-peer-Netzwerken gibt es keinen zentralen Anbieter, sondern alle Teilnehmer sind zugleich Konsumenten und Anbieter. Fällt ein Teilnehmer aus, verringert das ggf. den Datendurchsatz, aber beeinträchtigt das System ansonsten nicht.

2) Der Anbieter hat Einsicht in alle Kommunikationsvorgänge

Bei dezentralen Systemen gibt es keinen zentralen Anbieter mehr, der Einsicht in alle Kommunikationsvorgänge hätte. Grundsätzlich bleibt jedoch die Gefahr bestehen, dass die an der Herstellung der Kommunikationsverbindung und Übertragung der Daten beteiligten Teile der Infrastruktur (bzw. deren Besitzer) Daten abgreifen. Der Kommunikationsinhalt kann jedoch durch Verschlüsselung geschützt werden. Die Verbindungsdaten können ggf. verschleiert werden.

Beispiel aus der Praxis: Bei IRC gibt es keinen zentralen Anbieter, der alle Kommunikation einsehen könnte, jedoch kann jeder Server-Betreiber die Kommunikation auf seinem Server überwachen. Verschlüsselung ist möglich.

3) Der Anbieter bestimmt die Regeln der Kommunikation

In zentralen Systemen regelt der Anbieter das Zustandekommen der Kommunikation. Einerseits bietet dies das beschriebene Missbrauchspotential, andererseits ermöglicht der Anbieter durch seine Vermittlung aber auch die Kommunikation. Dezentrale Systeme entreißen dem Anbieter zwar die Macht, stellen die Teilnehmer aber gleichzeitig vor das Problem, die Kommunikation selbst aufbauen zu müssen. Eine Kommunikation über dezentrale Systeme ist daher nur möglich, wenn gemeinsame Konventionen und Standards eingehalten werden. Verschiedene dezentrale Systeme mit unterschiedlichen Standards, müssen Schnittstellen schaffen um ihre Teilnehmer miteinander zu verbinden.

Beispiel aus der Praxis: Bei Jabber gibt es keinen zentralen Anbieter, der Inhalte filtern oder Kommunikationsverbindungen zwischen einzelnen Teilnehmern unterbinden könnte. Damit die Teilnehmer kommunizieren können, müssen sich jedoch alle an das XMPP-Protokoll halten.

4) Der Anbieter kontrolliert die Kommunikation

Während ein zentraler Anbieter die Möglichkeit hat, Inhalte, Identitäten und ganze Kommunikationsvorgänge nach Belieben zu fälschen, gibt es in dezentralen Systemen niemanden mit solcher Macht. In dezentralen Systemen steigen dafür die Missbrauchsmöglichkeiten jedes einzelnen, da es z.B. keine zentrale Instanz gibt, die Identitäten verifiziert. Abhilfe kann hier jedoch Verschlüsselung und Signierung der Kommunikation auf Basis eines Web-of-Trust schaffen.

Beispiel aus der Praxis: Verschlüsselung und Signierung mit PGP

Fazit

Dezentrale Systeme sind ein wirksames Mittel gegen Überwachung und Zensur. Die Nachteile zentraler Systeme treten nicht auf, oder werden abgemildert. Gleichzeitig stellt uns die Unabhängigkeit von zentralen Anbietern vor neue Herausforderungen. Wie die Beispiele aus er Praxis zeigen, gibt es aber bereits Lösungen. Wir müssen nur noch gewillt sein, diese zu nutzen und weiterzuentwicklen.

Die Probleme der Zentralisierung

Welche Probleme und Gefahren bringt die Zentralisierung von Kommunikationsdiensten mit sich, die ich im letzten Blogartikel beanstandet habe? Ich erhebe mit der folgenden Aufstellung keinen Anspruch auf Vollständigkeit. Im Gegenteil freue ich mich über Ergänzungen in den Kommentaren. Ich möchte hier möglichst alle potentiellen Gefahren aufführen, unabhängig davon, wie realistisch sie uns derzeit aus politischer Sicht erscheinen mögen. Ich möchte eine Kommunikationsinfrastruktur, die ihrem Wesen nach bereits zensur- und überwachungsresistent ist. Denn gerade in Fällen, in denen der Rechtsstaat mir dies nicht mehr garantiert, bin ich auf eine funktionierende Kommunikationsinfrastruktur angewiesen. Wir müssen die Gefahren von zentralen Diensten also unabhängig von rechtsstaatlichen Garantien beleuchten.

1) Die Kommunikationsvorgänge sind abhängig von der Infrastruktur des Anbieters

Zentrale Dienste funktionieren nur, wenn der Anbieter des Dienstes Infrastruktur für diese bereitstellt. Die Kommunikationsvorgänge sind somit abhängig von der Infrastruktur dieses Anbieters. Die Infrastruktur kann gestört werden, oder ganz ausfallen. Ein Anbieter könnte auch insgesamt aufhören zu exisitieren oder sich entscheiden seinen Dienst einzustellen. Dann ist keine Kommunikation zwischen den Nutzern des Dienstes mehr möglich.

Beispiel aus der Praxis: Wenn twitter.com ausfällt, ist die Nutzung von Twitter nicht mehr möglich.

2) Der Anbieter hat Einsicht in alle Kommunikationsvorgänge

Ein zentraler Anbieter kann sowohl die Umstände der Kommunikation als auch deren Inhalt einsehen, speichern und auswerten. Da der Anbieter die Kommunikationsverbindung herstellt, weiß er mindestens, wer, wann mit wem in Kontakt steht. Die Einsicht in die Inhalte könnte man theoretisch durch Verschlüsselung unterbinden. Da der Anbieter jedoch auch die Regeln der Kommunikation bestimmt (siehe Punkt 3), ist es von dessen Willkür abhängig, ob Verschlüsselung möglich ist oder nicht. In der Praxis hat ein zentraler Anbieter daher auch immer Einsicht in die Kommunikationsinhalte, wenn er dies wünscht.

Beispiel aus der Praxis: Facebook-Nachrichten landen unverschlüsselt auf deren Servern und können prinzipiell mitgelesen werden (Wird vielleicht sogar gemacht, um passende Werbung einzublenden, weiß ich aber nicht sicher). Ver- und Entschlüsselung müsste außerhalb von Facebook vorgenommen werden, was natürlich kein Mensch macht.

3) Der Anbieter bestimmt die Regeln der Kommunikation

Bei zentralen Diensten bestimmt der Anbieter die Regeln, unter denen eine Kommunikationsverbindung zustanden kommen kann. Er legt fest, wer mit wem, wann und von wo in Verbindung treten kann. Er bestimmt auch, welche Kommunikationsmittel (Software, Geräte, …) dazu verwendet werden können. Darüber hinaus bestimmt er auch die Inhalte der Kommunikation. So könnten zum Beispiel Nachrichten die bestimmte Begriffe enthalten blockiert, und Verschlüsselung unterbunden werden.

Beispiel aus der Praxis: Die Nutzung von Voice-over-IP wird häufig von Mobilfunkanbietern unterbunden.

4) Der Anbieter kontrolliert die Kommunikation

Der Anbieter bestimmt jedoch nicht nur die Regeln der Kommunikation, sondern kontrolliert letztendlich den kompletten Kommunikationsvorgang. Er hat die Möglichkeit, Kommunikationsinhalte zu manipulieren, er kann Identitäten und sogar komplette Kommunikationsvorgänge fälschen.

Beispiel aus der Praxis: Das mittlerweile 10 Jahre alte, aber top-aktuelle Experiment „insert_coin“ von Alvar Freude und Dragan Espenschied, bei dem sie über einen zentralen Proxyserver Webseiteninhalte und E-Mail-Kommunikation manipulieren.

Zusammenfassung

Nachteile und Gefahren zentraler Kommunikationsdienste:

  1. Die Kommunikationsvorgänge sind abhängig von der Infrastruktur des Anbieters
    1. Technische Abhängigkeit von fremder Infrastruktur (kann ausfallen)
    2. Abschalten der Infrastruktur durch den Staat
    3. Der Anbieter kann insgesamt aufhören zu existieren
  2. Der Anbieter hat Einsicht in alle Kommunikationsvorgänge
    1. Den Inhalt der Kommunikation
    2. Die Umstände der Kommunikation
  3. Der Anbieter bestimmt die Regeln der Kommunikation
    1. Der Anbieter regelt das Zustandekommen der Kommunikation
      1. Wer mit wem
      2. Wann
      3. Wo
      4. Welches Kommunikationsmittel (z.B. Ausschluss fremder Clients, VoIP über Mobilfunk)
    2. Der Anbieter regelt den Inhalt der Kommunikation
      1. Filterung
      2. Verbot von Verschlüsselung
  4. Der Anbieter kontrolliert die gesamte Kommunikation
    1. Manipulation des Inhalts
    2. Fälschen von Identitäten
    3. Fälschen von Kommunikationsvorgängen

Fazit

Habe ich noch etwas übersehen? Ich freue mich über Feedback und Ergänzungen in den Kommentaren. Ich denke aber es sind jetzt schon mehr als genug Gründe, warum zentrale Dienste abzulehnen sind und über kurz oder lang dezentralisiert werden müssen. Auch wenn Anbieter heute vorgeben „nicht böse zu sein“, kann sich dies jederzeit ändern. Große Macht bring große Verantwortung heißt es – aber große Macht verleitet auch dazu, sie zu missbrauchen. Ich jedenfalls möchte nicht darauf vertrauen, dass zentrale Anbieter verantwortungsvoll mit ihrer Macht umgehen. Dafür gibt es schon jetzt zu viele Gegenbeispiele.

Die Zentralisierung unserer Kommunikation

Ich besitze unter anderem E-Mail-Adressen bei Web.de und bei meinem Internet-Provider und habe zudem noch einen eigenen Mail-Server laufen. Sicherlich geht es vielen von euch ähnlich. Laut Wikipedia wird E-Mail “ – noch vor dem Word Wide Web – als wichtigster und meistgenutzter Dienst des Internets angesehen“. E-Mail hat eine großartige Eigenschaft: Es ist egal bei welchem Anbieter ich bin und es ist auch egal welchen Anbieter der Empfänger meiner Mail nutzt. Egal ob großer Internet-Provider oder eigener Server: eine Kommunikation über E-Mail kann unabhängig davon stattfinden.

Welch eine Sensation, wird der ein oder andere sicher nun mit ironischem Unterton bemerken, während ich die scheinbar selbstverständlichen Vorzüge eines der ältesten Dienste des Internets anpreise.

Ich wünschte die Vorzüge währen so selbstverständlich, wie sie uns auf den ersten Blick erscheinen.

Während ich diese Zeilen schreibe, blinkt mein Instant-Messenger auf. Ein Freund von mir hat mich kontaktiert. Ich nutze Pidgin, da dieser Client mehrere IM-Dienste unter einem Dach vereint. Ich kann damit sowohl ICQ, MSN, Yahoo, Jabber und einiges mehr nutzen. Als die ersten sogenannten Multi-Protokoll-Clients auf den Markt kamen, wurde dies als Sensation gefeiert: „Wow, endlich kann ich mit allen meinen Freunden chatten, egal bei welchem Anbieter sie sind!“. An dieser Stelle wäre eine ironische Anmerkung dann tatsächlich angebracht, denn eine Sensation ist das nicht. Bestenfalls ein verkrüppelter Workarround für den Protokollsalat beim Instant-Messaging. Denn einen Account bei jedem einzelnen Anbieter benötige ich dazu weiterhin, eine Kommunikation zwischen meinem ICQ-Account und dem Yahoo-Account eines Bekannten bleibt weiterhin unmöglich.

Ich habe das Glück, das viele meiner Bekannten sehr netzaffin sind und Jabber nutzen. Auch der besagte Freund kontaktiert mich per Jabber. Seine Jabber-ID ist beim CCC gehostet, ich nutze meine Web.de-Adresse als Jabber-ID (Ja das geht!). Bei Jabber ist es wie bei E-Mail völlig egal, welchen Anbieter ich nutze, oder ob ich einen eigenen Jabber-Server betreibe. Ich kann mit allen anderen Jabber-Nutzern kommunizieren.

Trotzdem hat sich Jabber noch nicht durchgesetzt. Was bei E-Mail niemand akzeptieren würde, ist beim Instant-Messaging gang und gäbe. Man stelle sich vor, ich könnte mit meiner Web.de E-Mail-Addresse nur Web.de-Nutzer erreichen! Bei ICQ und Co. ist genau das traurige Realtiät!

„Aber wer nutzt denn schon ICQ?“, höre ich meine netzaffinen Bekannten geringschätzig schwadronieren. Dabei sind sie (und ich) anderswo keinen deut besser. Ich sage nur Facebook und Twitter.

Soziale Netzwerke sind zu Kommunikationszentralen geworden. Viele Jugendliche nutzen nicht einmal mehr E-Mail, sondern schicken sich nur noch Nachrichten über Facebook und Co. Selbst einige meiner Bekannten schicken mir eher eine Direktnachricht auf Twitter, als eine Mail zu schreiben. Wo das Problem ist? Das Problem liegt in der Zentralisierung. Genauer: Das Problem ist, das wir mehr und mehr bereit sind, unsere Kommunikation über zentrale Dienste abzuwickeln. Wir machen unsere Kommunikation somit abhängig von einzelnen, zentralen Anbietern. Dies bringt weitere Probleme und Gefahren mit sich, die tiefer gehen, als dass ich mit ICQ keinen MSN-Nutzer erreichen kann. Ich möchte, dass wir uns dieser Probleme bewusst werden und nach Lösungen suchen.

Mir ist klar, dass das Problembewusstsein bei vielen bereits vorhanden ist und auch schon an Lösungen gearbeitet wird. So gibt es mit status.net z.B. bereits eine Plattform für dezentrale Micro-Blogging-Dienste und mit Diaspora ist eine dezentrale Social-Networking-Plattform in Arbeit. Mir fehlt jedoch eine breite und grundsätzliche öffentliche Außeinandersetzung mit dem Thema. Während Überwachung und Zensur immer wieder auf der netzpolitischen Tagesordnung stehen, scheint mir das damit eng verbundene Thema (De)-Zentralisierung noch etwas vernachlässigt. Überwachung und Zensur wird aber durch zentrale Systeme erst möglich, oder zumindest extrem vereinfacht. Im Umkehrschluss: Die Dezentralisierung unserer Kommunikation hilft bei der Bekämpfung von Überwachung und Zensur.

In einem folgenden Blogpost werde ich näher auf die grundsätzlichen Probleme und Gefahren zentraler Dienste eingehen und mich anschließend den Vorzügen dezentraler Strukturen und dem Weg dorthin widmen.

Neues Blog über Linked Data und verwandte Themen

Ab sofort blogge ich unter datenwissen.de über Linked Data und verwandte Themen. Ich habe mich dazu entschlossen, diesen Themenkomplex aus diesem Blog auszugliedern, da ich mich hier hauptsächlich mit politischen Themen befasse. Eher technisch angehauchte Artikel gehen leicht unter und wurden zum Teil als störend empfunden.

Die Grenze lässt sich allerdings nicht so leicht ziehen, wie dies auf den ersten Blick scheint. Linked Data, das Semantische Web und natürlich das Thema Open Data haben eine beachtenswerte politische Dimension. Deshalb wird es sicher auch zu Überschneidungen und einigen Referenzen zwischen den Blogs kommen.

Mit dem neuen Blog verfolge ich das Ziel, das Thema Linked Data in der deutschen Blogosphäre bekannter zu machen. Es gibt leider noch sehr wenige deutsche Infos zu dem Thema. Neben eher theoretischen Artikeln werde ich dort auch Projekte beschreiben, an denen ich arbeite.

Ich bin gespannt wie sich das Blog entwickelt und freue mich über Rückmeldungen. Alle alten Artikel zum Thema Linked Data habe ich bereits von hier nach datenwissen.de kopiert. Als Einstieg in die sehr interessante Thematik empfehle ich neben diesen vor allem meinen Beitrag „Warum wir Daten verlinken müssen“.

Du bist nicht deine Website

Auf die Grundprinzipien von Linked Data bin ich bereits eingegangen. Auch einen kurzen Ausflug ins „Web of Data“ haben wir schon gewagt. Nun möchte ich die unterschiedlichen Arten von Ressourcen näher vorstellen. Das Datenweb ist mehr als ein Web aus Dokumenten. Wir können alle möglichen Dinge über URIs identifizieren und Daten über sie abrufbar machen.

Die W3C Technical Architecture Group unterscheidet zwischen Informations- und Nicht-Informationsressourcen. Im WWW ist diese Unterscheidung von untergeordneter Bedeutung, da es quasi nur Informationsressourcen gibt. Darunter fallen nämlich alle Arten von Dokumenten und das WWW ist nunmal ein Web aus Dokumenten. Im Datenweb kommen abstrakte und konkrete „Dinge“ hinzu, die ebenfalls über eine URI identifiziert werden wollen. Dabei handelt es sich dann um Nicht-Informationsressourcen. Denn die Ressourcen sind in diesem Fall keine Informationen, sondern z.B. Personen, Orte, Bücher, Produkte etc.

Die Unterscheidung zwischen Informations und Nicht-Informationsressourcen ist dabei weniger trivial, als auf den ersten Blick scheint. Ein oft gemachter Fehler ist es, die Beschreibung einer Ressource mit der Ressource selbst gleich zu setzen.

Wir wissen dass gemäß der Linked Data Grundprinzipien beim Abruf der ein Ding identizifierenden URI „nützliche Informationen“ bereitgestellt werden müssen. Dazu liefert z.B. ein Webserver ein RDF-Dokument aus. Ich möchte das kurz am Beispiel meiner eigenen FOAF-Datei demonstrieren. Ich (ja tatsächlich ich, nicht die Datei!) werde durch folgende URI im Datenweb identifiziert:

http://data.kontroversen.de/foaf.rdf#me

Beim Abruf mit einem Browser (Egal ob Web- oder Datenbrowser) wird folgende Datei ausgeliefert:

http://data.kontroversen.de/foaf.rdf

Diese Datei ist ein RDF-Dokument, welches Informationen über mich (d.h. die Ressource http://data.kontroversen.de/foaf.rdf#me) enthält. Die Datei und ich sind jedoch zwei völlig unterschiedliche Dinge (Weshalb ich im übrigen auch eine andere URI als die Datei habe). Die Datei ist eine Informationressource identifiziert durch die URI http://data.kontroversen.de/foaf.rdf. Ich bin eine Nicht-Informationsressource identifziert durch http://data.kontroversen.de/foaf.rdf#me.

Einmal verstanden erscheint dies selbstverständlich, führt jedoch anfangs oft zu Verwirrungen und paradoxen RDF-Dokumenten. So hat zum Beispiel die New York Times (erfreulicherweise!) beachtliche Datenbestände als Linked Data verfügbar gemacht. Anfangs wurden dabei jedoch typische Fehler gemacht, die aus der Verwechslung von Informations- und Nicht-Informationsressourcen herrühren.

Die URI http://data.nytimes.com/N31738445835662083893 identifiziert den Schauspieler Paul Newman. Über diese Person finden sich in dem Datensatz leider kaum Informationen, nützlich ist hauptsächlich der Verweis auf die DBpedia. Das ist jedoch nicht wirklich schlimm. Problematisch war eine Zeit lang (mittlerweile wurde es zum Glück korrigiert) die Vermischung von Daten und Metadaten: Was zum Beispiel sagt das Prädikat „dc:creator“ in Bezug auf eine Person aus? Heitere Zeigenossen möchten dort vielleicht die Eltern der Person eintragen, oder Gott, wenn sie gläubig sind. Ganz sicher ist jedoch nicht „The New York Times Company“ der „Ersteller“ von Paul Newman.

Die New York Times hatte die Nicht-Informationsressource „Paul Newman“ mit der Informationsressource verwechselt die ihn beschreibt. Was sie eigentlich ausdrücken wollten ist, dass „The New York Times Company“ der Ersteller des RDF-Dokumentes ist. Das RDF-Dokument ist jedoch eine eigene Ressource und bekommt eine eigene URI.

Die New York Times wurde zwischenzeitlich auf den Fehler hingewiesen und hat ihn korrigiert. Die Informationsressource wird nun über http://data.nytimes.com/N31738445835662083893.rdf identifiziert und „dc:creator“ bezieht sich auf diese Ressource und nicht mehr auf Paul Newman selbst.

Ich hoffe ich konnte die Unterscheidung zwischen Informations- und Nicht-Informationsressource einigermaßen verständlich darlegen. Mir hat dabei der Merkspruch „You are not your Website“ sehr geholfen. Denn im „Web of Data“ gibt es nicht nur deine Website, sondern auch dich selbst. Und das sind natürlich zwei völlig unterschiedliche Dinge.