15 Minuten zum Lesen

Die re:publica 17 ist vorbei. Und was habe ich mitgenommen?

So ein Zufall

Gestern, am 12.05.2017, abends, fingen die Nachrichten an, schneller zu kommen und die Zahlen stiegen in kürzester Zeit. Eine Ransomware-Infektion sehr großen Ausmaßes. #WannaCry hatte zugeschlagen, im Moment wird von mehr als 230.000 infizierten Systemen in 99 Ländern gesprochen, am Ende werden es über 400.000 gewesen sein. (Überblick über die Zahlen). Auch der NHS, das nationale Gesundheitssystem von Großbritannien, ist in großem Ausmaß betroffen. Und damit hat diese Cyberattacke Auswirkungen in einem Bereich, wo durch das Zusammenbrechen der IT Infrastruktur Menschen ihr Leben verlieren können. Also sehr nah an unserem täglichen Leben. An unser aller täglichem Leben. Beim Schreiben kommt mir dabei natürlich auch der Bundestags-Hack in den Sinn. Darüber habe ich gerade den Artikel in der Zeit gelesen. Und dann kommt das Warum? Und in diesem Warum stecken eine ganze Reihe von Fragen. Warum diese veraltete Technik in einem so sensiblen Bereich? Warum kann sich niemand solche Szenarien vorher ausmalen und entsprechend handeln, wo so etwas ja auch schon stattgefunden hat und täglich stattfindet? Warum immernoch diese, mit Obsession gepflegte, naive Ahnungslosigkeit? Warum diese verschämte Sprachlosigkeit? Gefühlige Metaphern, absichtlich gewählt, dazu gleich und später mehr.

Die naive Ahnungslosigkeit

Es ist ein Gefühl. Wenn ich in meiner Blase die Nachrichten, die ich lese, alle in demselben Kontext der sozio-technologischen Veränderungen interpretiere und das ganze mit den verschiedenen Science-Fiction-Zukünften vergleiche, damals gelesen, als das wirklich noch pure Zukunftsmusik war, dann klingen die möglichen Wege in die Zukunft nicht mehr wirklich utopisch sondern eher dissonant-dystopisch.
Und alles beginnt immer mit Worthülsen, die in großen Lettern über den entsprechenden Blasen stehen und nichts gutes verheißen: „Wir haben das schon im Griff… Wird schon nicht so schlimm… Wir wissen Bescheid und schätzen das richtig ein… Mehr kann man nicht tun… Das was wir tun, ist ein Gebot der Notwendigkeit… Die Sicherheit kommt immer zuerst… Die Freiheit ist unser höchstes Gut… Deshalb müssen wir uns einschränken…“ (s.u. Gunter Dueck „…phatische Kommunikation…“ ) Und diese Worte, über allem schwebend, sind verbunden mit dem Bild von Entscheidern oder Verantwortlichen – ich hoffe einfach mal, es gibt noch Menschen oder Positionen mit Verantwortung – auf strukturell verantwortlichen Ebenen, daß mir immer so extrem naiv erscheint, bis zur schmerzhaften Dummheit, daß, nähme man dieses bildlich dargestellte Maß als Norm, diejenigen, die vor technologischen Gefahren warnen, an dieser naiven Norm gemessen, wie völlig durchgeknallte Verschwörungstheoretiker wirken. Diese Attacke durch die Ransomware #WannaCry zu sehen, läßt einen fast schon aufatmen, weil damit endlich das Maß der Warnenden als Norm in der Realität von uns allen manifestiert wird. Ja, die digitalen Gefahren sind real, und ja, digitale Malware löscht nicht nur ein paar Bits und Bytes auf unserer Festplatte, die letzten Urlaubsbilder oder die Musik von der letzten Party und vielleicht auch etwas wichtigere Daten. Ja, diese Schadsoftware kann sehr einfach in unser analoges Leben eingreifen und damit wechselwirken. Und einen Biocomputer kann man leider (noch) nicht einfach neu booten.

Hintergründiges Wissen

Nur kurz, damit man immer mal wieder nachlesen und vergangene Ereignisse einordnen kann, hier ein bißchen Material. Als erstes ein Artikel in der Zeit über den Bundestags-Hack 2015. Allein schon wegen des Satzes ganz am Anfang: „… Die Techniker, erinnert sie sich, empfehlen ihr, sie solle ihren Rechner neu starten.“ Weil das é auf ihrer Tastatur nicht mehr geht. Dann natürlich die Artikel über WannaCry. Einmal von Zammis Clark „The worm that spreads WanaCrypt0r“ und von Matt Suiche „WannaCry — The largest ransom-ware infection in History“ stellvertretend als Analyse der Ransomware und dann von Marcus Hutchins aka MalwareTech „How to Accidentally Stop a Global Cyber Attacks“ über den kill switch des Ransomware-Programms in Form einer Domain, die einfach nur angemeldet werden mußte, um die weitere Ausbreitung wenigstens dieser Version zu verhindern. Und hier noch ein Factsheet zur WannaCry-Attacke.

Und ungefragt liefert mir die Realität damit einen guten Einstieg in meinen kurzen Rückblick auf die re:publica 2017.

Die Sessions - Von Algorithmen und Nebelwolken

re:publica 17: Eröffnungs-Keynote mit Can Dündar

Die re:publica ist eindeutig zu groß. Oder zu interessant. Oder beides gleichzeitig, was es nicht besser macht. Wie also den Überblick bei über tausend Sessions nicht verlieren? Und nicht ständig entnervt sein, daß ich jetzt schon wieder zwei andere, wahrscheinlich noch spannendere Sessions verpasse? Natürlich habe ich mir vorher einen Plan gemacht, gelernt aus den letzten Jahren. Alles zu Daten möchte ich hören, das sollte mein Leitfaden bei der Auswahl sein. Dann einmal durchs Programm und nach Überschrift ausgewählt. Am Schluß alles im Überblick angeschaut. Klar, das Ergebnis war, ich muß zwei bis drei Sessions gleichzeitig besuchen. Immer. Also nochmal durchs Programm und die, die von meiner Wichtung her nahe beieinander lagen, genauer anschauen, mit Teaser lesen und Autoren recherchieren. Gut, dadurch wird das ganz schon etwas eindeutiger. Bei einigen Sessions werde ich dann vor Ort entscheiden. Und woanders hingehen kann ich ja immernoch. Nächstes Jahr schreibe ich mir einen Algorithmus in R dafür.

Und los: Montag morgen, Nieselregen, viele Menschen, für einen Tweet gibts den #arbeitenviernull-Bambus-Kaffeebecher samt Inhalt und auf in die erste Session. Es geht um eine Analyse des Facebook Algorithmus1 für den Newsfeed; die Auswertung eines zwei Jahre alten Datensatzes, weil das die einzigen Daten sind, an die man jetzt noch ran kommt. Der Versuch, das Datensammeln und -auswerten nachzuvollziehen, um es beeinflussen zu können. Und gleich danach der Vortrag über die automatisierte Öffentlichkeit2. Noch mehr über die Informationsflut, der wir uns aussetzen und der wir ausgesetzt sind. Und über das langsam keimende Bewußtsein, das es da etwas zu regulieren gibt. Nein, das ist natürlich seit langem da, aber erst jetzt gibt es Gespräche über die Charta der digitalen Grundrechte. Meinem Gefühl nach ungefähr 10 Jahre zu spät, aber wahrscheinlich ist die zeitliche Grundnatur solcher sich bedingender Prozesse immer antizyklisch, daher läuft eine regulierungsbedürftige Entwicklung ab und die Regulierung setzt dann viel später ein. Vielleicht geht es auch nicht anders und der eine Prozess muß sich erst ungehindert entwickeln können, ehe man die ganze zukünftige Tragweite und Verflechtung absehen kann. Oder einfach: zu Beginn gibt es noch nichts zu regulieren. Weiter zum verläßlichen Journalismus u.a. mit Claus Kleber3. Sozusagen die andere Seite der Daten, hier verantwortungsvoll und sehr rechercheaufwendig erstellt.

Wie wird Framing heutzutage in der Vermittlung von Informationen und so hauptsächlich zur Manipulation der Informationsaufnahme eingesetzt? Wie mächtig sind die primären Sprachmetaphern, indem sie die möglichen Perspektiven auf Ereignisse grundlegend einschränken bzw. das Ausbrechen aus diesen Mustern sehr erschweren?4 Diese tiefen Sprachbilder machen die Wichtung in der Struktur des Denkens aus. Und nach dem Vortrag lese, höre ich die Worte anders. Denke über Formulierungen nach. Erst einmal semantisches Verstehen, scheint mir extrem wichtig. Bei all den komplexen Möglichkeiten unseres Denkens sind die einfachen Wege, die unser Hirn gerne geht, so erschreckend einfach, und einfach vorhersehbar und beeinflußbar.

Über den Zugriff auf eine Datenbank mit Meßdaten von Forschungsprojekten weltweit, aktueller und früherer Projekte. Daten haltbar und verfügbar machen, interdisziplinäres Forschen ermöglichen. Ein Projekt mit großer Wirkung, weil so neue Erkenntnisse ermöglicht werden, indem Daten neu verbunden werden können.5 Erinnert mich an Die Vermessung der Welt.

Wir stehen heute ständig auf einer Bühne und es ist immer Publikum da, wenn wir kommunizieren. Selbst im Publikum sein heißt heute auf einer Bühne stehen. Beide Seiten bedingen und brauchen sich. Und bestätigen sich ständig gegenseitig ihr Dasein. Phatische, d.b. inhaltsleere, Kommunikation. Die Kommunikationskreise werden so sinnentleerter – im Prinzip sagst man sich nur noch „Ich bin da, und Du bist da“ – und dadurch manipulierbarer. Die Aufmerksamkeitsspanne reicht nicht mehr für inhaltliche Auseinandersetzungen. Nur kurze Hypes zählen noch und das sich Entziehen wird als Defizit gedeutet.6

Und dann die Kommunikation wieder mit Sinn anfüllen: Nicht nur dazu gehören ist wichtig, nicht nur an schnell gesehene, gelesene Fakten glauben und sie weitererzählen. Man muß heute die eigenen Gedanke darlegen, jemand versuchen zu überzeugen. So die eigenen Modelle testen, Unsicherheit zeigen, sich verletzbar machen, Informationen aufnehmen, die neben dem eigenen Weltbild liegen, andere zu verstehen versuchen.7

Spannendes, kleines Meetup mit spannenden Menschen über Maschinenlernen, AI und Ethik. Algorithmen sind nur so gut, wie die Daten, mit denen sie zum Lernen gefüttert werden. Und weil ein bestimmtes Modell gelernt werden soll, werden bestimmte Daten ausgewählt. Und da alle Daten Tendenzen aufweisen, wird durch sie im System ein Bias erzeugt. Der Bias ist ein Schwellenwert und wird so zu einem systematischen Effekt, der eine Grundtendenz in das lernende System bringt. Wie werden also solche die Daten ausgewählt? Und wer wählt? Wie bringen wir unsere ethischen Konzepte in diesen Prozess als festen evaluierenden Bestandteil ein?8

Der Wert der Daten sind die Entscheidungen, die aufgrund der Daten getroffen werden. Damit wir unsere Entscheidungsfreiheit behalten, brauchen wir das Recht auf Transparenz der über uns gesammelten Daten und der Art und Weise der Verarbeitung unserer Daten. Welche Algorithmen verarbeiten wie unsere Daten?9

Die Transformation der Struktur des sozialen Zusammenlebens und wie man sie erkennen kann. Wie die Strukturen unsere Entscheidungen beeinflussen und Muster bilden, die uns erkennbar und dadurch manipulierbar machen. Sind für uns eigentlich diese Prozesse der Strukturbildung noch nachvollziehbar, wenn die Algorithmen selbst die Modelle und Strukturen bauen, die die Muster erkennen? Die erkennbaren Muster hängen ja immer vom erkennenden System ab. Und jetzt sind wir da angekommen, daß wir diese erkennenden Systeme nicht mehr selbst bauen. Die böse Frage ist, wann wir dann zum Fehler in diesem System werden. Na, wenn das nicht Science Fiction ist.10

Noch einmal vom Maschinenlernen und Bias und der sozialen Sphere als emotionale Sphere. Wenn die Muster durch Maschinenlernen erkannt werden können, können wir erkannt werden und durch Algorithmen das Angebot an Inhalten für uns gesteuert werden. Wir müssen uns Räume mit einem benutzerdefinierten Level von Sicherheit schaffen können.11

Die Geschichte der Schwarzen in den USA als Geschichte der Überwachung. Die Überwachung liegt natürlich auch gewichtiger auf den Schwarzen als den Weißen.12

re:publica 17: Bryan Duggan - Turn Off Your Mind, Relax And Float Downstream: Exploring Parallels Between Psychedelic Experiences And Virtual Reality Ach, auf der re:publica einen Vortrag zu hören, in dem Timothy Leary, Terence McKenna und Alan Watts auf einmal vorkommen, geht schon runter wie Öl. Haben aber auch lange gebraucht, hier anzukommen. Take a deep breath! Dabei gehören sie ganz besonders hierher, weil sie eine Menge über uns in unserer Zukunft zu erzählen haben. Und dann noch im kuschligen Kühlhaus. Trotzdem es schon wieder mehr Stages geworden sind, ist das Kühlhaus echt ein cooler Ort. Tech meets Sofa. Das Setting würde Leary bestimmt gefallen, denke ich mir.
Jedenfalls: Lesen! Hier geht es eigentlich um Erlebnisse unter Drogen und wie vergleichbar sie sind mit den Bildern aus der VR. Turn on, Tune in, Drop Out!13

Von Nnenna Nwakanma von der Open Source Foundation of Africa vorgetragene globale Ziele für eine nachhaltige digitale Entwicklung. Open Data, Open Source, Information, Wissen, Innovation für jede/n. Niemanden zurücklassen! Kein Mauern sondern Brücken bauen. Cedric Price sagte: „Technology is the answer… but what was the question?“ Und was ist die Antwort? Openness!14

Die vielleicht wichtigste Session auf der re:publica. Wie bringen wir unseren Kindern das Coden bei? Coden bedeutet nicht nur Code schreiben, also Sprachen und Tools zu benutzen, sondern umfaßt alle Tätigkeiten eines Programmierers. Und hauptsächlich geht es dabei darum, Probleme zu verstehen und zu analysieren, in Strukturen zu bringen, Modelle zu entwickeln und dann erst darum, diese Ansätze in geschriebenen Code zu verwandeln. Zeitmäßig dann der kleinste Teil, wahrscheinlich. Um verantwortungsvoll aufzuwachsen, müssen die Kids verstehen, wie und warum das Digitale funktioniert, um die Vorgänge vor dem Screen zu begreifen. Nachhaltiges Lernen.15

re:publica 17: Kathleen McClellan, Norman Solomon, John Kiriakou - Why Democracies Need Transparency And Accountability Transparenz ist unbedingt notwendig. John Kiriakou, der CIA Whistleblower, der die Folterpraktiken der USA nach 9/11 veröffentlichte, meinte das auch. Und hat dafür persönliche Opfer gebracht. Und das in unserer heutigen Welt, in der die Menschen maximal transparent sind und die Regierungen alles geheim halten. Das sollte andersrum sein. Ist es nicht. Deshalb muß gewispert werden.16

Noch einmal Statistik über die digitale Öffentlichkeit. Viele Daten und verschiedene Blicke auf die möglichen Verzerrungen – sozusagen Verwerfungen im Datenwahrnehmungskontinuum – da drinnen-draußen. Sehr spannend in der geballten Form: Beeinflussung durch Design, häufig gepostete Inhalte mit wenig Information werden als relevant betrachet, häufige, leicht zu erinnernde Informationen werden als wichtiger angesehen (Verfügbarkeitsheuristik), emotionale Aufladung, kognitive Dissonanz, Filterblasen, Echokammern und vieles mehr.17

Über die Geschichte hinter einer Technologie, die eigentlich jeder kennt oder kennen sollte – die der Kryptographie-Erfinder, der Cypherpunks. Internet und Verschlüsselung statt Natur und moralischen Grenzen. Durch Freiheit und Schutz der Privatsphäre die Welt verändern. Politisches in der Technologie, so, wie ich es nicht aus dem Silicon Valley erwartet hätte.18

Der Weg von der Software zur Hardware, wie er derzeit über das IoT auch ins normale Leben vordringt. Maschinen stehen bereit und die Programme werden geschrieben. Und Google, früher mal der Anbieter für unser aller Suchmaschine, dann eine Software-Company, wird jetzt zu einer Hardware-Firma. Google stellt einen Deep Learning Prozessor her. Und alle Daten gehen einmal dadurch - der Prozessor auf der ständigen Suche nach sinnvollen Mustern. Erinnerungen an die Deep Dream Images. Welche Muster wird die Maschine dann sehen? Gibt es dafür überhaupt eine visuelle Entsprechung, an der wir uns orientieren und vergleichen können? Es wird Science Fiction in den nächsten Jahren. Oder sind wir schon mitten drin?19

Nichts zu sagen?

re:publica 17: Lost in space

Ja, verschämte Sprachlosigkeit: Warum wird, bis auf die paar einsamen Rufer nicht darüber gesprochen, was alles sein kann? Welche Ableitungen dieses eine Hier und Jetzt in der Zukunft nehmen kann? Oder – so nannte es Gunter Dueck – treten wir in eine Wattekugel phatischer Kommunikation? Inhaltsfreie Kommunikation? Wir sagen nur noch, es ist jetzt so, wie es jetzt ist. Ich bin da, Du bist da. Und Digital ist da. Und: Schau her, wir machen doch. Ich teile das ganze in 2 Stimmungen ein. Beide wahrscheinlich Extreme, die einiges vernachlässigen, allerdings wird durch die Superposition extremer Sichtpunkte manchmal etwas klarer.
Einmal diese: In der neuen Technik liegen gute Möglichkeiten, vieles zu erleichtern, vielen Menschen Ungeahntes zu ermöglichen, das Leben zu verbessern. Also gestalten wir die Zukunft mit, indem wir all die neuen Möglichkeiten gestalten und nutzen. Das tun die Gestalter.
Und diese: Diese heutige Gegenwart und der heutige Einsatz der Technik birgt viele Gefahren und wir können Menschen mit dieser Technik viel Schaden zufügen, die Freiheit einschränken, vieles manipulieren. Die Zukunft zu einem gefährlichen Ort für unsere Kinder machen. Davor warnen uns die Warner.
Das sind für mich die 2 Pole der Möglichkeiten, über die gesprochen wird und das Spektrum der sozialen Spheren dazwischen wird versucht, zu gestalten. Weil es das ist, was wir kennen.
Aber mir fehlt da ein dritter, wichtiger Pol: Die Möglichkeiten des Unbekannten.
Und das, was ich am Anfang meinte, ist, daß darüber nicht gesprochen wird. Fast ist eine kollektive Angst vor diesem Unbekannten zu spüren. Zwar machen wir alle mit beim Gestalten oder beim Warnen, aber plötzlich kommen wir alle an einen Punkt, an dem war niemand vor uns da, niemand hat das schon mal gemacht, auch nicht vielleicht oder nur ein bißchen anders. Nein, gar nicht. Das ist alles neu! Früher war wenigstens der Weg ein bißchen ausgetreten. Jetzt ist da kein Weg.
Zu Zeiten unserer Eltern war, wenn vielleicht auch schon nicht mehr der konkrete Weg so doch sehr stark die Struktur der Welt, in die man hineinstolperte, klar. Die Vektoren des Modells, in das das Leben sich entfaltete, vibrierten schon etwas – kleine Strukturen wurden verändert: die verrückten Grünen zogen in den Bundestag ein – aber es wirkte alles sehr stabil. Und unsere Eltern konnten es uns noch ziemlich genau beschreiben, das Modell, das auch wir beleben würden. Am Anfang war das vielleicht noch so. Die alten Regeln galten noch. Doch wir sind heute mit die ersten, die gleichzeitig die Parameter der Vektoren völlig neu definieren und dann sofort die neuen Modelle bewohnen, alle neuen Wege gehen, in alle Richtungen, schneller oder langsam. Unser Leben spult sich in eine Versuchsanordnung ab, die wir selbst berechnen, messen und analysieren, um sie dann sofort wieder zu justieren. Und wieder eine Iteration weiter.
Wir schaffen Technologien, die die Struktur unserer Spheren, in denen wir Leben, so schnell und grundlegend verändern, bevor wir überhaupt die Chance haben, einen Hauch davon zu verstehen. Im Vortrag über Facebook’s Algorithmic Empire wurden 2 Jahre alte Facebook-Daten analysiert, um über die Algorithmen etwas herauszufinden. Aber jetzt sind 2 Jahre vergangen. Die Daten sind heute alt. Wenn ich heute ein Aussage mit Hilfe dieser Daten treffe, fließt dabei z.B. nicht ein, daß die Facebook-Nutzer heute 2 Jahre mehr Erfahrung im Umgang mit dem Netzwerk und anderen Internet-Technologien haben. Vielleicht ist das auch ein beachtenswerter Einfluß.
Wir machen alle etwas darin, alle, die auf der re:publica waren. Wir liefern Daten, bauen Algorithmen und daraus Modelle, berechnen die Welten, in denen wir Leben – wir alle schrauben mit an den Parametern, jeder hat seine kleinen Lieblingsvariablen. Und was ich gespürt habe: jeder ist unsicher, den ersten Schritt zu tun, eine Hypothese aufzustellen und dann der eigenen Hypothese zu folgen oder sie zu verwerfen und eine neue aufzustellen.
Vielleicht fehlt bei der Schnelligkeit der Entwicklung ganz einfach die Zeit für Entwicklung. Heute wird nicht mehr eine Hypothese aufgestellt, die dann in eine Theorie entwickelt, diese verwirklicht, ins Leben gebracht und anhand seiner Entwicklung bewertet wird. Nach einer Zeit geschaut wird, was denn geworden ist aus unserer Hypothese. Und wenn es etwas Gutes ist, wird sie weiter entwickelt und wenn nicht, wird die Theorie verworfen.
Heute wird die Theorie einfach dadurch abgelöst, daß es eine neue Theorie gibt. In dem Moment, wenn die neue Theorie da ist, wird die alte abgelöst. Bevor sie überhaupt durch Zeit überprüft werden konnte, ist schon eine neue Theorie da, deren Hypothese noch mehr Gutes verspricht, als die Letzte. Es werden nur noch Fragen in Richtung Zukunft geworfen und nicht die Antworten abgewartet.
Zum Anfang: Gut, bei all der Schwarzmalerei, auf der re:publica wird natürlich darüber gesprochen, über all das Neue, das Unsichtbare, die Gefahren und die jetzt schon spürbaren Auswirkungen. Doch die alte Vision vom Inter-Net ist zu einer Realität geworden, die so viele nicht wollten, scheint mir. Und unsere jetzige Realität hat großen Einfluß darauf, in welche Richtung wir die Vektoren unsere Modells in Zukunft entwickeln können. Und mit dieser Perspektive ist es nicht so leicht, einfach so weiterzurennen.
Die neuen Visionen sind schon berechnet.

Weiter bald im zweiten Teil: Was wird? Meinungen sind wie Daten.

  1. Prof. Vladan Joler, Dr. Djordje Krivokapic, Dr. Ben Wagner, Dr. Julia Powles - Mapping Facebook's Algorithmic Empire

  2. Prof. Dr. Frank Pasquale - The Automated Public Sphere

  3. Ralf Paniczek, Claus Kleber, Eva-Maria Lemke - Fakes, Leaks Und Desinformation - Verlässlicher Journalismus Im Nachrichtensturm

  4. Elisabeth Wehling - Die Macht Der Sprachbilder – Politisches Framing Und Neurokognitive Kampagnenführung

  5. Ulrike Prange, Uwe Schindler - Daten Von Früher Und Heute Für Die Zukunft Nutzen: Das Informationssystem PANGAEA

  6. Guter Dueck - Flachsinn - Über Gute Und Schlechte Aufmerksamkeit, Wie Man Sie Bekommt, Wer Gewinnt Und Wohin Alles Führt

  7. Lisa Charlotte Rost - Data Vis Or: Why You Don't Believe In Facts, And How To Fix It

  8. Frederike Kaltheuner - Machine Learning, Ai And Ethics Meetup

  9. Andreas Weigend - Data for the People

  10. John W. Kelly - Eratosthenes For The 21st Century: Inventing Cyber-Social Geography

  11. Caroline Sinders - Emotional Trauma, Machine Learning And The Internet

  12. Matt Mitchell - Surveillance & Black Bodies In The United States: Bridging The Digital Security Divide

  13. Bryan Duggan - Turn Off Your Mind, Relax And Float Downstream: Exploring Parallels Between Psychedelic Experiences And Virtual Reality

  14. Carolyn Florey, Manuela Yamada, Nnenna Nwakanma - Pull Request: Restructuring The Global Power Paradigm Through Open Source

  15. Karl Beecher - Teach Our Kids To Code? No, Teach Them How To Think

  16. Kathleen McClellan, Norman Solomon, John Kiriakou - Why Democracies Need Transparency And Accountability: The Global Consequences Of The Obama Administration’s War On Whistleblowers In A Trump Administration.

  17. Konrad Lischka, Christian Stöcker - Etwas Empirie: Was Wir Wirklich Über Filterblasen, Fake-News Und Die Digitale Öffentlichkeit Wissen

  18. Emanuel Löffler - Cypherpunks - Kryptographische Technologien Als Politisches Projekt

  19. Paul Feigelfeld - Deep Shit: Paradigms, Paranoia and Politics of Machine Intelligence