re:publica 17: Was bleibt?
Die re:publica 17 ist vorbei. Und was habe ich mitgenommen?
So ein Zufall
Gestern, am 12.05.2017, abends, fingen die Nachrichten an, schneller zu kommen und die Zahlen stiegen in kürzester Zeit. Eine Ransomware-Infektion sehr großen Ausmaßes. #WannaCry hatte zugeschlagen, im Moment wird von mehr als 230.000 infizierten Systemen in 99 Ländern gesprochen, am Ende werden es über 400.000 gewesen sein. (Überblick über die Zahlen). Auch der NHS, das nationale Gesundheitssystem von Großbritannien, ist in großem Ausmaß betroffen. Und damit hat diese Cyberattacke Auswirkungen in einem Bereich, wo durch das Zusammenbrechen der IT Infrastruktur Menschen ihr Leben verlieren können. Also sehr nah an unserem täglichen Leben. An unser aller täglichem Leben. Beim Schreiben kommt mir dabei natürlich auch der Bundestags-Hack in den Sinn. Darüber habe ich gerade den Artikel in der Zeit gelesen. Und dann kommt das Warum? Und in diesem Warum stecken eine ganze Reihe von Fragen. Warum diese veraltete Technik in einem so sensiblen Bereich? Warum kann sich niemand solche Szenarien vorher ausmalen und entsprechend handeln, wo so etwas ja auch schon stattgefunden hat und täglich stattfindet? Warum immernoch diese, mit Obsession gepflegte, naive Ahnungslosigkeit? Warum diese verschämte Sprachlosigkeit? Gefühlige Metaphern, absichtlich gewählt, dazu gleich und später mehr.
Die naive Ahnungslosigkeit
Es ist ein Gefühl. Wenn ich in meiner Blase die Nachrichten, die ich lese, alle in demselben Kontext der sozio-technologischen Veränderungen interpretiere und das ganze mit den verschiedenen Science-Fiction-Zukünften vergleiche, damals gelesen, als das wirklich noch pure Zukunftsmusik war, dann klingen die möglichen Wege in die Zukunft nicht mehr wirklich utopisch sondern eher dissonant-dystopisch.
Und alles beginnt immer mit Worthülsen, die in großen Lettern über den entsprechenden Blasen stehen und nichts gutes verheißen: „Wir haben das schon im Griff… Wird schon nicht so schlimm… Wir wissen Bescheid und schätzen das richtig ein… Mehr kann man nicht tun… Das was wir tun, ist ein Gebot der Notwendigkeit… Die Sicherheit kommt immer zuerst… Die Freiheit ist unser höchstes Gut… Deshalb müssen wir uns einschränken…“ (s.u. Gunter Dueck „…phatische Kommunikation…“ ↸) Und diese Worte, über allem schwebend, sind verbunden mit dem Bild von Entscheidern oder Verantwortlichen – ich hoffe einfach mal, es gibt noch Menschen oder Positionen mit Verantwortung – auf strukturell verantwortlichen Ebenen, daß mir immer so extrem naiv erscheint, bis zur schmerzhaften Dummheit, daß, nähme man dieses bildlich dargestellte Maß als Norm, diejenigen, die vor technologischen Gefahren warnen, an dieser naiven Norm gemessen, wie völlig durchgeknallte Verschwörungstheoretiker wirken. Diese Attacke durch die Ransomware #WannaCry zu sehen, läßt einen fast schon aufatmen, weil damit endlich das Maß der Warnenden als Norm in der Realität von uns allen manifestiert wird. Ja, die digitalen Gefahren sind real, und ja, digitale Malware löscht nicht nur ein paar Bits und Bytes auf unserer Festplatte, die letzten Urlaubsbilder oder die Musik von der letzten Party und vielleicht auch etwas wichtigere Daten. Ja, diese Schadsoftware kann sehr einfach in unser analoges Leben eingreifen und damit wechselwirken. Und einen Biocomputer kann man leider (noch) nicht einfach neu booten.
Hintergründiges Wissen
Nur kurz, damit man immer mal wieder nachlesen und vergangene Ereignisse einordnen kann, hier ein bißchen Material. Als erstes ein Artikel in der Zeit über den Bundestags-Hack 2015. Allein schon wegen des Satzes ganz am Anfang: „… Die Techniker, erinnert sie sich, empfehlen ihr, sie solle ihren Rechner neu starten.“ Weil das é auf ihrer Tastatur nicht mehr geht. Dann natürlich die Artikel über WannaCry. Einmal von Zammis Clark „The worm that spreads WanaCrypt0r“ und von Matt Suiche „WannaCry — The largest ransom-ware infection in History“ stellvertretend als Analyse der Ransomware und dann von Marcus Hutchins aka MalwareTech „How to Accidentally Stop a Global Cyber Attacks“ über den kill switch des Ransomware-Programms in Form einer Domain, die einfach nur angemeldet werden mußte, um die weitere Ausbreitung wenigstens dieser Version zu verhindern. Und hier noch ein Factsheet zur WannaCry-Attacke.
Und ungefragt liefert mir die Realität damit einen guten Einstieg in meinen kurzen Rückblick auf die re:publica 2017.
Die Sessions - Von Algorithmen und Nebelwolken
Die re:publica ist eindeutig zu groß. Oder zu interessant. Oder beides gleichzeitig, was es nicht besser macht. Wie also den Überblick bei über tausend Sessions nicht verlieren? Und nicht ständig entnervt sein, daß ich jetzt schon wieder zwei andere, wahrscheinlich noch spannendere Sessions verpasse? Natürlich habe ich mir vorher einen Plan gemacht, gelernt aus den letzten Jahren. Alles zu Daten möchte ich hören, das sollte mein Leitfaden bei der Auswahl sein. Dann einmal durchs Programm und nach Überschrift ausgewählt. Am Schluß alles im Überblick angeschaut. Klar, das Ergebnis war, ich muß zwei bis drei Sessions gleichzeitig besuchen. Immer. Also nochmal durchs Programm und die, die von meiner Wichtung her nahe beieinander lagen, genauer anschauen, mit Teaser lesen und Autoren recherchieren. Gut, dadurch wird das ganz schon etwas eindeutiger. Bei einigen Sessions werde ich dann vor Ort entscheiden. Und woanders hingehen kann ich ja immernoch. Nächstes Jahr schreibe ich mir einen Algorithmus in R dafür.
Und los: Montag morgen, Nieselregen, viele Menschen, für einen Tweet gibts den #arbeitenviernull-Bambus-Kaffeebecher samt Inhalt und auf in die erste Session. Es geht um eine Analyse des Facebook Algorithmus1 für den Newsfeed; die Auswertung eines zwei Jahre alten Datensatzes, weil das die einzigen Daten sind, an die man jetzt noch ran kommt. Der Versuch, das Datensammeln und -auswerten nachzuvollziehen, um es beeinflussen zu können. Und gleich danach der Vortrag über die automatisierte Öffentlichkeit2. Noch mehr über die Informationsflut, der wir uns aussetzen und der wir ausgesetzt sind. Und über das langsam keimende Bewußtsein, das es da etwas zu regulieren gibt. Nein, das ist natürlich seit langem da, aber erst jetzt gibt es Gespräche über die Charta der digitalen Grundrechte. Meinem Gefühl nach ungefähr 10 Jahre zu spät, aber wahrscheinlich ist die zeitliche Grundnatur solcher sich bedingender Prozesse immer antizyklisch, daher läuft eine regulierungsbedürftige Entwicklung ab und die Regulierung setzt dann viel später ein. Vielleicht geht es auch nicht anders und der eine Prozess muß sich erst ungehindert entwickeln können, ehe man die ganze zukünftige Tragweite und Verflechtung absehen kann. Oder einfach: zu Beginn gibt es noch nichts zu regulieren. Weiter zum verläßlichen Journalismus u.a. mit Claus Kleber3. Sozusagen die andere Seite der Daten, hier verantwortungsvoll und sehr rechercheaufwendig erstellt.
Wie wird Framing heutzutage in der Vermittlung von Informationen und so hauptsächlich zur Manipulation der Informationsaufnahme eingesetzt? Wie mächtig sind die primären Sprachmetaphern, indem sie die möglichen Perspektiven auf Ereignisse grundlegend einschränken bzw. das Ausbrechen aus diesen Mustern sehr erschweren?4 Diese tiefen Sprachbilder machen die Wichtung in der Struktur des Denkens aus. Und nach dem Vortrag lese, höre ich die Worte anders. Denke über Formulierungen nach. Erst einmal semantisches Verstehen, scheint mir extrem wichtig. Bei all den komplexen Möglichkeiten unseres Denkens sind die einfachen Wege, die unser Hirn gerne geht, so erschreckend einfach, und einfach vorhersehbar und beeinflußbar.
Über den Zugriff auf eine Datenbank mit Meßdaten von Forschungsprojekten weltweit, aktueller und früherer Projekte. Daten haltbar und verfügbar machen, interdisziplinäres Forschen ermöglichen. Ein Projekt mit großer Wirkung, weil so neue Erkenntnisse ermöglicht werden, indem Daten neu verbunden werden können.5 Erinnert mich an Die Vermessung der Welt.
Wir stehen heute ständig auf einer Bühne und es ist immer Publikum da, wenn wir kommunizieren. Selbst im Publikum sein heißt heute auf einer Bühne stehen. Beide Seiten bedingen und brauchen sich. Und bestätigen sich ständig gegenseitig ihr Dasein. Phatische, d.b. inhaltsleere, Kommunikation. Die Kommunikationskreise werden so sinnentleerter – im Prinzip sagst man sich nur noch „Ich bin da, und Du bist da“ – und dadurch manipulierbarer. Die Aufmerksamkeitsspanne reicht nicht mehr für inhaltliche Auseinandersetzungen. Nur kurze Hypes zählen noch und das sich Entziehen wird als Defizit gedeutet.6
Und dann die Kommunikation wieder mit Sinn anfüllen: Nicht nur dazu gehören ist wichtig, nicht nur an schnell gesehene, gelesene Fakten glauben und sie weitererzählen. Man muß heute die eigenen Gedanke darlegen, jemand versuchen zu überzeugen. So die eigenen Modelle testen, Unsicherheit zeigen, sich verletzbar machen, Informationen aufnehmen, die neben dem eigenen Weltbild liegen, andere zu verstehen versuchen.7
Spannendes, kleines Meetup mit spannenden Menschen über Maschinenlernen, AI und Ethik. Algorithmen sind nur so gut, wie die Daten, mit denen sie zum Lernen gefüttert werden. Und weil ein bestimmtes Modell gelernt werden soll, werden bestimmte Daten ausgewählt. Und da alle Daten Tendenzen aufweisen, wird durch sie im System ein Bias erzeugt. Der Bias ist ein Schwellenwert und wird so zu einem systematischen Effekt, der eine Grundtendenz in das lernende System bringt. Wie werden also solche die Daten ausgewählt? Und wer wählt? Wie bringen wir unsere ethischen Konzepte in diesen Prozess als festen evaluierenden Bestandteil ein?8
Der Wert der Daten sind die Entscheidungen, die aufgrund der Daten getroffen werden. Damit wir unsere Entscheidungsfreiheit behalten, brauchen wir das Recht auf Transparenz der über uns gesammelten Daten und der Art und Weise der Verarbeitung unserer Daten. Welche Algorithmen verarbeiten wie unsere Daten?9
Die Transformation der Struktur des sozialen Zusammenlebens und wie man sie erkennen kann. Wie die Strukturen unsere Entscheidungen beeinflussen und Muster bilden, die uns erkennbar und dadurch manipulierbar machen. Sind für uns eigentlich diese Prozesse der Strukturbildung noch nachvollziehbar, wenn die Algorithmen selbst die Modelle und Strukturen bauen, die die Muster erkennen? Die erkennbaren Muster hängen ja immer vom erkennenden System ab. Und jetzt sind wir da angekommen, daß wir diese erkennenden Systeme nicht mehr selbst bauen. Die böse Frage ist, wann wir dann zum Fehler in diesem System werden. Na, wenn das nicht Science Fiction ist.10
Noch einmal vom Maschinenlernen und Bias und der sozialen Sphere als emotionale Sphere. Wenn die Muster durch Maschinenlernen erkannt werden können, können wir erkannt werden und durch Algorithmen das Angebot an Inhalten für uns gesteuert werden. Wir müssen uns Räume mit einem benutzerdefinierten Level von Sicherheit schaffen können.11
Die Geschichte der Schwarzen in den USA als Geschichte der Überwachung. Die Überwachung liegt natürlich auch gewichtiger auf den Schwarzen als den Weißen.12
Ach, auf der re:publica einen Vortrag zu hören, in dem Timothy Leary, Terence McKenna und Alan Watts auf einmal vorkommen, geht schon runter wie Öl. Haben aber auch lange gebraucht, hier anzukommen. Take a deep breath! Dabei gehören sie ganz besonders hierher, weil sie eine Menge über uns in unserer Zukunft zu erzählen haben. Und dann noch im kuschligen Kühlhaus. Trotzdem es schon wieder mehr Stages geworden sind, ist das Kühlhaus echt ein cooler Ort. Tech meets Sofa. Das Setting würde Leary bestimmt gefallen, denke ich mir.
Jedenfalls: Lesen! Hier geht es eigentlich um Erlebnisse unter Drogen und wie vergleichbar sie sind mit den Bildern aus der VR. Turn on, Tune in, Drop Out!13
Von Nnenna Nwakanma von der Open Source Foundation of Africa vorgetragene globale Ziele für eine nachhaltige digitale Entwicklung. Open Data, Open Source, Information, Wissen, Innovation für jede/n. Niemanden zurücklassen! Kein Mauern sondern Brücken bauen. Cedric Price sagte: „Technology is the answer… but what was the question?“ Und was ist die Antwort? Openness!14
Die vielleicht wichtigste Session auf der re:publica. Wie bringen wir unseren Kindern das Coden bei? Coden bedeutet nicht nur Code schreiben, also Sprachen und Tools zu benutzen, sondern umfaßt alle Tätigkeiten eines Programmierers. Und hauptsächlich geht es dabei darum, Probleme zu verstehen und zu analysieren, in Strukturen zu bringen, Modelle zu entwickeln und dann erst darum, diese Ansätze in geschriebenen Code zu verwandeln. Zeitmäßig dann der kleinste Teil, wahrscheinlich. Um verantwortungsvoll aufzuwachsen, müssen die Kids verstehen, wie und warum das Digitale funktioniert, um die Vorgänge vor dem Screen zu begreifen. Nachhaltiges Lernen.15
first code: make crispbread with butter and marmelade #teachkidstothink pic.twitter.com/SThaP5ZDOG
— Holger Kral (@HolgerKral) 4. Juni 2017
Transparenz ist unbedingt notwendig. John Kiriakou, der CIA Whistleblower, der die Folterpraktiken der USA nach 9/11 veröffentlichte, meinte das auch. Und hat dafür persönliche Opfer gebracht. Und das in unserer heutigen Welt, in der die Menschen maximal transparent sind und die Regierungen alles geheim halten. Das sollte andersrum sein. Ist es nicht. Deshalb muß gewispert werden.16
Noch einmal Statistik über die digitale Öffentlichkeit. Viele Daten und verschiedene Blicke auf die möglichen Verzerrungen – sozusagen Verwerfungen im Datenwahrnehmungskontinuum – da drinnen-draußen. Sehr spannend in der geballten Form: Beeinflussung durch Design, häufig gepostete Inhalte mit wenig Information werden als relevant betrachet, häufige, leicht zu erinnernde Informationen werden als wichtiger angesehen (Verfügbarkeitsheuristik), emotionale Aufladung, kognitive Dissonanz, Filterblasen, Echokammern und vieles mehr.17
Über die Geschichte hinter einer Technologie, die eigentlich jeder kennt oder kennen sollte – die der Kryptographie-Erfinder, der Cypherpunks. Internet und Verschlüsselung statt Natur und moralischen Grenzen. Durch Freiheit und Schutz der Privatsphäre die Welt verändern. Politisches in der Technologie, so, wie ich es nicht aus dem Silicon Valley erwartet hätte.18
Der Weg von der Software zur Hardware, wie er derzeit über das IoT auch ins normale Leben vordringt. Maschinen stehen bereit und die Programme werden geschrieben. Und Google, früher mal der Anbieter für unser aller Suchmaschine, dann eine Software-Company, wird jetzt zu einer Hardware-Firma. Google stellt einen Deep Learning Prozessor her. Und alle Daten gehen einmal dadurch - der Prozessor auf der ständigen Suche nach sinnvollen Mustern. Erinnerungen an die Deep Dream Images. Welche Muster wird die Maschine dann sehen? Gibt es dafür überhaupt eine visuelle Entsprechung, an der wir uns orientieren und vergleichen können? Es wird Science Fiction in den nächsten Jahren. Oder sind wir schon mitten drin?19
Nichts zu sagen?
Ja, verschämte Sprachlosigkeit: Warum wird, bis auf die paar einsamen Rufer nicht darüber gesprochen, was alles sein kann? Welche Ableitungen dieses eine Hier und Jetzt in der Zukunft nehmen kann? Oder – so nannte es Gunter Dueck – treten wir in eine Wattekugel phatischer Kommunikation? Inhaltsfreie Kommunikation? Wir sagen nur noch, es ist jetzt so, wie es jetzt ist. Ich bin da, Du bist da. Und Digital ist da. Und: Schau her, wir machen doch. Ich teile das ganze in 2 Stimmungen ein. Beide wahrscheinlich Extreme, die einiges vernachlässigen, allerdings wird durch die Superposition extremer Sichtpunkte manchmal etwas klarer.
Einmal diese: In der neuen Technik liegen gute Möglichkeiten, vieles zu erleichtern, vielen Menschen Ungeahntes zu ermöglichen, das Leben zu verbessern. Also gestalten wir die Zukunft mit, indem wir all die neuen Möglichkeiten gestalten und nutzen. Das tun die Gestalter.
Und diese: Diese heutige Gegenwart und der heutige Einsatz der Technik birgt viele Gefahren und wir können Menschen mit dieser Technik viel Schaden zufügen, die Freiheit einschränken, vieles manipulieren. Die Zukunft zu einem gefährlichen Ort für unsere Kinder machen. Davor warnen uns die Warner.
Das sind für mich die 2 Pole der Möglichkeiten, über die gesprochen wird und das Spektrum der sozialen Spheren dazwischen wird versucht, zu gestalten. Weil es das ist, was wir kennen.
Aber mir fehlt da ein dritter, wichtiger Pol: Die Möglichkeiten des Unbekannten.
Und das, was ich am Anfang meinte, ist, daß darüber nicht gesprochen wird. Fast ist eine kollektive Angst vor diesem Unbekannten zu spüren. Zwar machen wir alle mit beim Gestalten oder beim Warnen, aber plötzlich kommen wir alle an einen Punkt, an dem war niemand vor uns da, niemand hat das schon mal gemacht, auch nicht vielleicht oder nur ein bißchen anders. Nein, gar nicht. Das ist alles neu! Früher war wenigstens der Weg ein bißchen ausgetreten. Jetzt ist da kein Weg.
Zu Zeiten unserer Eltern war, wenn vielleicht auch schon nicht mehr der konkrete Weg so doch sehr stark die Struktur der Welt, in die man hineinstolperte, klar. Die Vektoren des Modells, in das das Leben sich entfaltete, vibrierten schon etwas – kleine Strukturen wurden verändert: die verrückten Grünen zogen in den Bundestag ein – aber es wirkte alles sehr stabil. Und unsere Eltern konnten es uns noch ziemlich genau beschreiben, das Modell, das auch wir beleben würden. Am Anfang war das vielleicht noch so. Die alten Regeln galten noch. Doch wir sind heute mit die ersten, die gleichzeitig die Parameter der Vektoren völlig neu definieren und dann sofort die neuen Modelle bewohnen, alle neuen Wege gehen, in alle Richtungen, schneller oder langsam. Unser Leben spult sich in eine Versuchsanordnung ab, die wir selbst berechnen, messen und analysieren, um sie dann sofort wieder zu justieren. Und wieder eine Iteration weiter.
Wir schaffen Technologien, die die Struktur unserer Spheren, in denen wir Leben, so schnell und grundlegend verändern, bevor wir überhaupt die Chance haben, einen Hauch davon zu verstehen. Im Vortrag über Facebook’s Algorithmic Empire wurden 2 Jahre alte Facebook-Daten analysiert, um über die Algorithmen etwas herauszufinden. Aber jetzt sind 2 Jahre vergangen. Die Daten sind heute alt. Wenn ich heute ein Aussage mit Hilfe dieser Daten treffe, fließt dabei z.B. nicht ein, daß die Facebook-Nutzer heute 2 Jahre mehr Erfahrung im Umgang mit dem Netzwerk und anderen Internet-Technologien haben. Vielleicht ist das auch ein beachtenswerter Einfluß.
Wir machen alle etwas darin, alle, die auf der re:publica waren. Wir liefern Daten, bauen Algorithmen und daraus Modelle, berechnen die Welten, in denen wir Leben – wir alle schrauben mit an den Parametern, jeder hat seine kleinen Lieblingsvariablen. Und was ich gespürt habe: jeder ist unsicher, den ersten Schritt zu tun, eine Hypothese aufzustellen und dann der eigenen Hypothese zu folgen oder sie zu verwerfen und eine neue aufzustellen.
Vielleicht fehlt bei der Schnelligkeit der Entwicklung ganz einfach die Zeit für Entwicklung. Heute wird nicht mehr eine Hypothese aufgestellt, die dann in eine Theorie entwickelt, diese verwirklicht, ins Leben gebracht und anhand seiner Entwicklung bewertet wird. Nach einer Zeit geschaut wird, was denn geworden ist aus unserer Hypothese. Und wenn es etwas Gutes ist, wird sie weiter entwickelt und wenn nicht, wird die Theorie verworfen.
Heute wird die Theorie einfach dadurch abgelöst, daß es eine neue Theorie gibt. In dem Moment, wenn die neue Theorie da ist, wird die alte abgelöst. Bevor sie überhaupt durch Zeit überprüft werden konnte, ist schon eine neue Theorie da, deren Hypothese noch mehr Gutes verspricht, als die Letzte. Es werden nur noch Fragen in Richtung Zukunft geworfen und nicht die Antworten abgewartet.
Zum Anfang: Gut, bei all der Schwarzmalerei, auf der re:publica wird natürlich darüber gesprochen, über all das Neue, das Unsichtbare, die Gefahren und die jetzt schon spürbaren Auswirkungen. Doch die alte Vision vom Inter-Net ist zu einer Realität geworden, die so viele nicht wollten, scheint mir. Und unsere jetzige Realität hat großen Einfluß darauf, in welche Richtung wir die Vektoren unsere Modells in Zukunft entwickeln können. Und mit dieser Perspektive ist es nicht so leicht, einfach so weiterzurennen.
Die neuen Visionen sind schon berechnet.
Weiter bald im zweiten Teil: Was wird? Meinungen sind wie Daten.
Lisa Charlotte Rost - Data Vis Or: Why You Don't Believe In Facts, And How To Fix It
Frederike Kaltheuner - Machine Learning, Ai And Ethics Meetup
John W. Kelly - Eratosthenes For The 21st Century: Inventing Cyber-Social Geography
Caroline Sinders - Emotional Trauma, Machine Learning And The Internet
Karl Beecher - Teach Our Kids To Code? No, Teach Them How To Think
Emanuel Löffler - Cypherpunks - Kryptographische Technologien Als Politisches Projekt
Paul Feigelfeld - Deep Shit: Paradigms, Paranoia and Politics of Machine Intelligence