Partner von

Der Soundtrack unserer Tweets

tweetscapes.de macht aus aus Twitter Kunst. Was Datengezwitscher mit Walgesängen zu tun hat, hat uns der Berliner Klangkünstler Anselm Venezian Nehls erklärt.
jurek-skrobala

jetzt.de: Twitter ist bekannt als führendes Mikroblogging-Netzwerk: Hier werden Informationen in SMS-Länge verbreitet. Das konnte man bislang nur lesen - und kann es ab sofort auf #tweetscapes auch in Klangform wahrnehmen. Bloße Spielerei oder was ist der Sinn dahinter?
Anselm: Dahinter stehen verschiedene Ansätze - ein künstlerischer und ein wissenschaftlicher. Ich studiere Sound Studies an der Universität der Künste in Berlin und hatte vor zwei Jahren schon die Idee, Twitter zu vertonen. Das Projekt #tweetscapes ging von Deutschlandradio aus und die hatten diese Idee, im Radio Sonifikationen - also Datenverklanglichungen - zu senden. Die haben sich gedacht: Wir machen das in Zusammenarbeit mit jemandem, der von den Klängen was versteht, der einen ästhetischen Anspruch mitbringt und sind dann an meinen Studiengang herangetreten. Das ist also so ein Halb-halb-Projekt und ich bin eher der künstlerische Teil. Für mich ist wichtig, dass #tweetscapes eine interaktive Komposition ist, die sich ständig entwickelt und die vom Publikum gespielt wird. Das Kunstwerk wird in Echtzeit von den Leuten geschaffen. Meistens hat man bei Sonifikationen einen fertigen Datensatz, der in einem bestimmten Tempo wiedergegeben wird. Bei Twitter können wir dagegen in Echtzeit arbeiten. Das basiert trotzdem auf einer wissenschaftlich korrekten Wiedergabe von Twitter-Daten und gibt Antworten auf Fragen wie: Wie ticken die sozialen Netze gerade? Welche Themen werden besprochen? Wann passiert was?

Auf der Internetseite hört man Twitter nicht nur. Man sieht eine Deutschlandkarte, auf der im Sekundentakt Begriffe in verschiedenen Regionen aufblitzen. Was hat es damit auf sich?
Wir haben zuerst eine Sonifikation gemacht und dann eine Visualisierung dazu, die nach der gleichen Art funktioniert. Tarik Barri war dafür verantwortlich, der ist Videokünstler. In seiner Visualisierung gibt es verschiedene Arten von Nachrichten, die dargestellt werden. Die aufblitzenden Begriffe sind die Schlagworte, mit denen Twitter arbeitet - Hashtags. Damit lässt sich wirklich zeigen, an welcher Stelle in Deutschland eine bestimmte Nachricht auftaucht. So Sachen wie ReTweets - Weiterleitungen von Nachrichten - haben wir über Pfeile zwischen zwei Punkten in Deutschland dargestellt. Den gleichen Datensatz, den wir akustisch umsetzen, haben wir visuell aufbereitet. Das sind zwei verschiedene Arten, die Menschen zu erreichen. Guckt man nur hin, kann man gar nicht richtig mitkommen. Um schnell genug zu verstehen, was da passiert, braucht man den Sound. Wohingegen man das Ganze ohne die Visualisierung auch hervorragend laufen lassen kann und so einen gewissen Ambience-Zustand bekommt - man wird Teil des Streams. Die Visualisierung zeigt natürlich, was gerade konkret passiert. Ich finde, beide Varianten greifen total schön ineinander.

Was wird bei #tweetscapes zu Klängen und Bildern: nur die beliebtesten Twitter-Themen - die sogenannten Trending Topics - oder alle Hashtags, ReTweets und Replies?
Alles was in Deutschland auf Twitter passiert, soll ein Klang- oder Bildereignis auslösen. Wir verbildlichen bestimmte Trending Topics: Wir zeigen maximal drei Themen gleichzeitig, die besonders stark diskutiert werden. Je dominanter die sind, desto intensiver wird das verklanglicht und verbildlicht. Einzelne Nachrichten werden als einzelne Ereignisse dargestellt. Mein Grundgedanke bei der Sonifikation war: Mich interessieren die kommunikativen Weiterleitungsprozesse bei Twitter. Wir haben da also diesen einen Tweet, der geht als ReTweet von A nach B, von B nach C usw. Diese Prozesse fand ich total spannend. Unsere Konstellation basiert nun komplett auf Hashtags, weil das eine einfache Variante ist, die Themen aus den Tweets zu bekommen. Jedes Hashtag bekommt in Echtzeit einen Klang zugeordnet. Replies, direkte Antworten - wenn man an jemanden persönlich eine Nachricht schreibt - sind natürlich intimer. Deshalb haben wir gesagt, wir verklanglichen das mit einer Art Flüster-Sound. Der richtet sich auch danach, ob jemand einen Smiley oder ein Fragezeichen verwendet und verändert sich hierdurch. Außerdem haben wir den Chitchat vertont - das sind alle Nachrichten bei Twitter, die wir nicht zuordnen können, weil sie z.B. kein Hashtag haben. Das Grundrauschen von Twitter sozusagen. Das ist dieses Klackern, das man hören kann, oder die weißen Punkte, die aufblitzen in der Visualisierung. Wir stellen das auch dar, weil wir damit zeigen: Ist generell tote Hose, reden alle über ein bestimmtes Thema oder doch kreuz und quer?

Wer bestimmt, wie ein bestimmtes Hashtag zu klingen hat?
Das macht der Computer. Hashtags bestehen ja aus Buchstaben, denen wir bestimmte Zahlenwerte zuordnen. A ist also 1, B die 2 oder so. Wir rechnen die Buchstaben dann zusammen und schicken das weiter an einen Synthesizer. Der hat viele verschiedene Regler, die den Sound bestimmen. Die Reglerkombination ergibt einen bestimmten Klang. Alle Regler werden nun auf die Zahlenwerte eingestellt, die sich aus der Buchstabenkombination der Hashtags ergeben. Daraus ergibt sich ein einzigartiger Klang. So sind wir auch gewappnet, auf Trends der Zukunft zu reagieren - also auf neue Hashtags, die es vorher noch nicht gab.

 

  • 878598

In der deutschen Twitter-Landschaft flackert und klackert es unruhig

Und jeder deutsche Twitter-Nutzer kann mit seinen Hashtags mitkomponieren?
Ja, genau. Es kann nicht nur jeder Twitter-Nutzer mitkomponieren. Die ganze Komposition würde nicht funktionieren ohne die deutschen Twitter-Nutzer. Wenn keiner twittert, gibt's keine Komposition.

Endet das nicht in einer totalen Kakophonie? Schließlich hatte Twitter 2011 in Deutschland bereits über eine halbe Million aktiver Nutzer und verzeichnet weltweit im Schnitt 10,7 Neuanmeldungen pro Sekunde.
Ja, Kakophonie ist relativ. Ich hätte nicht gedacht, dass unser Projekt am Ende so gut klingt. Ich finde ja schon, dass das Endergebnis akustisch ganz ansprechend geworden ist. Wir haben uns Mühe gegeben, bestimmte Regeln zu definieren, damit alles gut funktioniert. Wenn extrem viel getwittert wird, sind alle Sounds kürzer. Der Algorithmus reagiert also flexibel darauf, was gerade los ist. So haben wir Vorsichtsmaßnahmen getroffen, damit das nicht komplett furchtbar klingt oder der Computer durch Datenüberlastung abstürzt.

Wie unterscheidet sich nun ein Tweet aus Berlin im Sound von einem aus Bocholt?
Man hört die Räumlichkeit. Wir haben eine virtuelle Distanz erschaffen mit der Mitte Deutschlands als Zentrum der Sonifikation. Aus den Koordinaten wird berechnet, wie weit weg das wirklich ist und das klingt dann auch entsprechend weit weg. Links-rechts entspricht außerdem West-Ost: Also kommt der Berliner Tweet eher von rechts und der Bocholter von der linken Seite.

Wenn gerade nichts getwittert wird, hört man Walgesänge. Wieso kein Vogelgezwitscher?
Das bezieht sich auf den sogenannten "Fail Whale". 2009, als Twitter noch richtig hip war, aber auch ständig down, gab es diese niedliche Fehlermeldung: einen Wal, der von ein paar Vögelchen aus dem Wasser geholt wird, darunter einen Text von wegen "Twitter kommt gleich wieder". Wir standen natürlich vor der Frage: Was machen wir, wenn wir gerade keine Daten von Twitter bekommen? Daher die Walfischgesänge. Das war für mich irgendwie total logisch.

Wieso habt ihr euch gerade für Twitter entschieden und nicht etwa für Facebook oder die populärsten Google-Suchbegriffe?
Ehrlich gesagt, fand ich Suchbegriffe nicht so spannend. Die Echtzeitnummer von Twitter fand ich besonders gut, weil das diesen selbstreflexiven Effekt hat: Die Leute reden, um sich selbst zu hören, um Teil des Kunstwerks zu sein und machen gleichzeitig Werbung für das Kunstwerk. Was die Leute bei Twitter von sich preisgeben, ist ja irre: Du weißt, wo die sind, was die gerade machen, worüber sie reden. Du kannst alle möglichen Metadaten nachverfolgen: Wer hat das zum ersten Mal geschrieben, wann wurde das retweetet? Dieser kommunikative Aspekt war mir das Wichtigste. Bei Google-Suchergebnissen hast du nun mal keinen tollen Feedback-Mechanismus. Das wäre mit Facebook außerdem nicht gut gegangen, weil die viel restriktiver mit Informationen umgehen. Als wir mit dem Projekt anfingen, gab's das auch noch nicht, dass bei Facebook asynchrone Beziehungen bestanden - wie die Abonnements heute. Facebook war damals noch nicht ausgelegt auf die Kommunikation, die ich spannend fand: dass man einen gesamtgesellschaftlichen Dialog in den Daten sieht. Mittlerweile würde das bei Facebook besser gehen, aber ich weiß nicht, ob die einem nicht sofort mit Klagen kommen würden. Da waren die Leute von Twitter ganz hilfreich. Es war erst mal überhaupt wichtig, dass wir die Daten bekommen und das Ok von denen kriegen.

  • 878602

Anselm Venezian Nehls (30) improvisiert gerne mit Hashtags

Ist euer Projekt eine Werbeaktion für Twitter?
Ich sehe das schon auch als Werbeaktion für Twitter. Ich weiß nicht, ob die Leute von Twitter das so sehen und das überhaupt nötig haben. Ich glaube nicht, dass die sagen: "Oh, toll, ihr macht Werbung für uns – danke!"

Die Seite ist ein Gemeinschaftsprojekt von Künstlern und Wissenschaftlern. Wie lange habt ihr daran gearbeitet und wer hat das finanziert?
Wir haben jetzt sieben Monate daran gearbeitet. Erst an der akustischen Variante, die letzten zwei Monate dann auch an der visuellen. Sich das ganze Konzept zu überlegen und an jeder Stellschraube zu drehen, das dauert eine Weile. Finanziert hat das effektiv Deutschlandradio.

Dass man Twitter nicht nur sehen und hören, sondern auch spüren kann, habt ihr vergangenen Dienstag im Berliner Club Berghain gezeigt.
Wir hatten #tweetscapes einen Tag online und haben dann unsere Art "Release-Konzert" im Berghain gespielt - nach dem Motto: Jetzt fangen wir an, damit Spaß zu haben. Wir haben dort die Sounds der Hashtags, des Chitchats usw. auf verschiedene Regler gelegt und damit improvisiert. Das lief quadrophonisch, die Geräusche kamen also aus allen Richtungen. Wir haben das zusammen mit einer Band gemacht, die dem Ganzen Grooves entgegengesetzt hat. Außerdem konnten die Besucher Einfluss darauf nehmen: Es kamen extrem tiefe Basstöne, sobald die Hashtags #berghain oder #tweetscapes abgeschickt wurden. Man konnte da gar nicht ahnen, was als Nächstes passieren wird.

Der Umgang mit Sozialen Netzwerken spricht in eurem Projekt mehr Sinne an. Sieht so das Web 3.0 aus: Twitter zum Anhören, Facebook-Anstupser, die man fühlen kann?
Ich glaube schon, dass das ein wichtiger Trend ist. Sonifikation an sich finde ich unfassbar unterbewertet. Dabei ist das etwas so unglaublich Schönes. Man sitzt vorm Computer und nimmt den Großteil der Informationen mit den Augen wahr - die Ohren sind meist komplett frei. Da bleibt ein ganzer Raum an Sinnesorganen ungenutzt - dagegen halten wir unser Projekt. Die meisten Daten kommen heutzutage ja in Echtzeit und gerade da ist das spannend. Ich glaube schon, dass das was ist, was in Zukunft mehr Früchte tragen wird.

+++

tweetscapes ist eine Kooperation von Deutschlandradio Kultur, HEAVYLISTENING, der Ambient Intelligence Group des CITEC an der Universität Bielefeld und dem Masterstudiengang Sound Studies an der Universität der Künste Berlin und das erste Projekt der neuen Sendereihe sonarisationen auf Deutschlandradio Kultur.


Text: jurek-skrobala - Screenshot: Tarik Barri / Foto: Freimut Wössner

Zur Startseite

Die besten Geschichten von jetzt -

täglichen Newsletter bestellen

oder auf WhatsApp abonnieren