Der Facebook-Skandal, aber sortiert
Gastautor3.4.2018
Der ARD-Digitalexperte Dennis Horn ordnet Facebooks Daten-Skandal ein â mĂŒsst Ihr gelesen haben
Foto: obamawhitehouse.archives.gov
Inhalt
- Erstens: Es handelte sich nicht um ein Datenleck
- Zweitens: Facebook verkauft keine Nutzerdaten
- Drittens: Es gibt keinen Beweis dafĂŒr, dass Cambridge Analytica wirklich Wahlen beeinflusst hat
- Viertens: Tesla und SpaceX haben ihre Facebook-Seiten vermutlich gar nicht gelöscht
- FĂŒnftens: Facebook hat nicht âschnell reagiertâ
- Wie sehr flieĂt die Angst von Journalisten vor Facebook in ihre Berichterstattung ĂŒber Facebook ein?
- Differenzieren, differenzieren, differenzieren!
Es gĂ€rt in mir, seit vor zwei Wochen der Skandal rund um Facebook, Cambridge Analytica und den Missbrauch von 50 Millionen DatensĂ€tzen ins Rollen gekommen ist. Denn ein gehöriger Teil der Berichterstattung zu dem Thema ist falschâââund ich glaube, man muss da einmal ein bisschen sortieren.
Bisher geht die Story oft wie folgt: âBei Facebook gab es eins der gröĂten Datenlecks in der Geschichte des sozialen Netzwerks. Die Firma Cambridge Analytica konnte 50 Millionen DatensĂ€tze abzapfen, mit denen die Wahl in den USA zugunsten von Donald Trump beeinflusst wurde. Als Reaktion auf das Datenleck haben Unternehmen wie Tesla und SpaceX ihre Auftritte bei Facebook gelöscht. Das soziale Netzwerk selbst reagiert auf den massiven Druck und will seinen Nutzerinnen und Nutzern in den kommenden Monaten eine bessere und einfachere Kontrolle ĂŒber ihre Daten ermöglichen.â
Erstens: Es handelte sich nicht um ein Datenleck
Vor fĂŒnf Jahren hat sich der russisch-amerikanische Neurowissenschaftler Aleksandr Kogan mit einer Idee bei Facebook gemeldet: Er wollte fĂŒr wissenschaftliche Zwecke Daten ĂŒber Nutzerinnen und Nutzer sammeln, und zwar mit Hilfe einer App innerhalb von Facebook. Er hat dann einen Psychotest mit dem Namen âthisisyourdigitallifeâ erfunden.
Rund 270.000 Leute haben diesen Psychotest genutzt und dafĂŒrâââAchtung!âââwissentlich ihr EinverstĂ€ndnis gegeben, Daten wie den Wohnort und die GefĂ€llt-mir-Angaben bei Facebook auszulesen. Das BestĂ€tigungsfenster dafĂŒr kennt ihr mit Sicherheit auch. Es erscheint auch, wenn ihr âCandy Crushâ spielen oder euch mit eurem Facebook-Login bei anderen Onlinediensten wie Spotify oder Tinder anmelden wollt.
Wer seine Daten an eine App innerhalb von Facebook ĂŒbermittelt, gibt sie damit wissentlich her. Es handelt sich also nicht um ein Datenleck.
Das Problem dabei war, dass die App âthisisyourdigitallifeâ nicht nur die Daten ihrer etwa 270.000 Nutzerinnen und Nutzer auswerten konnte, sondern auch die von deren Freunden. Damit waren es am Ende nicht mehr 270.000 DatensĂ€tze, sondern 50 Millionen.
Passieren konnte das erstens, weil Facebook seinen App-Entwicklern diese Möglichkeit damals noch grundsĂ€tzlich eingerĂ€umt hat. Zweitens aber hatten sich die gut 49,7 Millionen Menschen, deren DatensĂ€tze ebenfalls betroffen sind, nicht durch die Einstellungen des sozialen Netzwerks gekĂ€mpft. HĂ€tten sie das getan, hĂ€tten sie tief versteckt in den MenĂŒs die Möglichkeit gehabt, die Datenweitergabe an Apps ihrer Freunde zu verbieten.
Dem Feature, dass Apps auch die Daten von Freunden absaugen durften, hat Facebook im FrĂŒhjahr 2015 den Saft abgedreht, auch nachdem es schon lange ernsthafte Bedenken bei DatenschĂŒtzern hervorgerufen hatte. Bis dahin aber dĂŒrften viele Apps die Daten abgezogen haben. Ich wĂŒrde also nicht ausschlieĂen, dass neben dem Fall Cambridge Analytica noch weitere dieser Art auf uns wartenâââwenn auch nicht so groĂ und so politisch.
Zusammengefasst:Â Es handelte sich nicht um ein Datenleck, sondern um ein âFeatureâ von Facebook. Das Problem dabei sind erstens die Nutzerinnen und Nutzer, die zu faul sind, ihre Einstellungen durchzugehen, und zweitens Facebook, das dieses Tor fĂŒr die Datenweitergabe jahrelang offen gelassen hat.
Zweitens: Facebook verkauft keine Nutzerdaten
Aleksandr Kogan hat die 50 Millionen DatensĂ€tze an Cambridge Analytica verkauftâââund damit seinen Vertrag mit Facebook gebrochen. App-Entwickler wie er durften all diese Daten zwar sammeln, aber eben nur fĂŒr die Verwendung in Zusammenhang mit ihren Apps. Die Daten an Dritte zu verkaufen, war schon immer verboten. Wenn sich Facebook an dieser Stelle also âals Opfer darstelltâ, wie ich es öfter gelesen habe, stimmt das sogar.
Allerdings hat Facebook es offenbar ĂŒber all die Jahre versĂ€umt, seine Entwickler streng genug zu kontrollierenâââund auch den Fall Cambridge Analytica recht formell behandelt. Dass Kogan Daten an die Firma verkauft hat, weiĂ Facebook seit 2015 und hat sich von beiden lediglich schriftlich versichern lassen, dass diese Daten gelöscht wurdenâââwas nicht passiert ist. Hier wĂ€re eine hĂ€rtere Gangart angebracht gewesen; der frĂŒhere Facebook-Mitarbeiter Sandy Pakrilas hat das Problem im Guardian ganz gut auf den Punkt gebracht:
Asked what kind of control Facebook had over the data given to outside developers, he replied: âZero. Absolutely none. Once the data left Facebook servers there was not any control, and there was no insight into what was going on.â
Daten verkauft hat Facebook allerdings nicht. Diesen Vorwurf höre ich immer wieder: âFacebook verkauft ja unsere Daten. Das ist schlieĂlich deren GeschĂ€ftsmodell.â Ich habe mir, was diesen Punkt angeht, in den vergangenen Jahren den Mund fusselig geredet: Es ist nicht das GeschĂ€ftsmodell von Facebook, unsere Daten zu verkaufen. Ganz im Gegenteil: Es wĂ€re schĂ€dlich fĂŒr das GeschĂ€ftsmodell.
Facebook verdient 40 Milliarden US-Dollar im Jahr mit personalisierter Werbung. Werbekunden können bei Facebook zum Beispiele eine Anzeige fĂŒr Norah-Jones-Fans schalten, die zwischen 30 und 40 Jahre alt sind, mĂ€nnlich und in Dormagen wohnen. Ich bekomme diese Anzeige dann zu sehenâââaber die Werbekunden erfahren nicht, dass ich es bin, der sie sehen kann. WĂ€ren die Daten nĂ€mlich einmal verkauft und in Umlauf, wĂ€ren sie nicht mehr so wertvoll. Facebook sitzt also auf seinem Datenschatz.
Zusammengefasst: Facebook verkauft keine Nutzerdaten, sondern nur den Zugang zu den jeweiligen Nutzerinnen und Nutzern. Die Datenweitergabe an App-Entwickler war und ist also eine potenzielle Gefahr fĂŒr das eigene GeschĂ€ftsmodell.
Drittens: Es gibt keinen Beweis dafĂŒr, dass Cambridge Analytica wirklich Wahlen beeinflusst hat
Es klingt alles zu perfekt: Der böse Datensammler Facebook, dessen Daten bei einer ominösen Firma landen, die verspricht, Wahlen beeinflussen zu können. Der Wissenschaftler Aleksandr Kogan, der fĂŒr seine Forschung Geld aus St. Petersburg bekommen haben soll. Das Unternehmen Cambridge Analytica, das Verbindungen zum russischen Ălkonzern Lukoil haben soll. Und dann unser aller Wunsch, fĂŒr solche Dinge wie Trump und den Brexit endlich eine einfache ErklĂ€rung geliefert zu bekommen.
Was wir gerade erleben, ist die Neuauflage einer Diskussion von Ende 2016. Da war Cambridge Analytica schon einmal in den Schlagzeilen, nachdem Das Magazin den Artikel âIch habe nur gezeigt, dass es die Bombe gibtâveröffentlicht hatte. âDer Psychologe Michal Kosinski hat eine Methode entwickelt, um Menschen anhand ihres Verhaltens auf Facebook minutiös zu analysierenâ, hieĂ es darin. Kosinski habe Donald Trump mit seinen wundersamen Big-Data-Methoden mit zum Sieg verholfen.
Dahinter hatte ich in WDR Digitalistan 2016 schon ein paar Fragezeichen gemacht. Der Artikel ĂŒber Cambridge Analytica zog als Belege die Aussagen von nur zwei Personen heran, nĂ€mlich Erfinder und VerkĂ€ufer der Big-Data-Methoden. Der Artikel verwechselte Korrelation und KausalitĂ€tâââein beliebter Fehler. Und der Artikel verschwieg, dass Ted Cruz in den Vorwahlen der Republikaner Cambridge Analytica mitten in seiner Kampagne fallen gelassen hatteâââoffenbar, weil er mit den Ergebnissen nicht zufrieden war. Die Autoren des Artikels mussten im Schweizer Tages-Anzeiger zurĂŒckrudern:
âWir hĂ€tten unsere Recherche-Ergebnisse stĂ€rker hinterfragen mĂŒssen. Dann wĂ€ren notwendige Relativierungen im Text verbliebenâââetwa die Bauchlandungen der Firma Cambridge Analytica und ihre kontrovers eingeschĂ€tzte Rolle in der Brexit- und Cruz-Kampagne.â
Bis heute sind Zweifel daran angebracht, dass Cambridge Analytica wirklich Wahlen und Volksabstimmungen beeinflussen konnte, auch nach der Berichterstattung im Guardian, die den Facebook-Datenskandal nun ins Rollen brachte. JĂŒrgen Hermes arbeitet im Spektrum der Wissenschaft auf, wie das Unternehmen viel verspricht, aber immer dann sehr vage bleibt, wenn es darum geht, wie diese Versprechen angeblich umgesetzt werden. Einen Beweis dafĂŒr bleibt Cambridge Analytica bis heute schuldig. Stattdessen zeigt der britische Sender Channel 4, dass die Firma auch auf andere Methoden setzt, als nur die Datenanalyse:
Wie verlĂ€sslich sind die Behauptungen eines Unternehmens, das mit solchen Methoden arbeitet? Dessen Manager auf die Frage danach, ob es kompromittierende Details ĂŒber den politischen Gegner besorgen könnte, antworten, man könne âMĂ€dchen zum Haus des Kandidaten schickenâ, und Ukrainerinnen seien âsehr schön, ich finde, das funktioniert sehr gutâ? Die anbieten, einem Kandidaten Geld fĂŒr seinen Wahlkampf zu geben, ihm als Gegenleistung ein StĂŒck Land anzubietenâââund das auf Video aufzunehmen?
Das alles heiĂt nicht, dass wir uns keine Sorgen wegen Targeting und Manipulation machen sollten. Bei all den Daten, die vor allem Facebook hat, mĂŒssen wir da wachsam bleibenâââauch nach den psychologischen Experimenten, die Facebook selbst mit Nutzerinnen und Nutzern durchgefĂŒhrt hat. Auch Cambridge Analytica sollten wir weiter gut unter die Lupe nehmen. Aber zur Geschichte um dieses Unternehmen gehört eben auch, dass sie auffĂ€llig viele Indizien fĂŒr eine Luftnummer mit sich bringt.
Zusammengefasst: Politisches Targeting dĂŒrfte funktionierenâââaber vielleicht eher dann, wenn einem die Möglichkeiten zur VerfĂŒgung stehen, die nur Facebook selbst besitzt. Wenn es um Cambridge Analytica geht, bleiben nach wie vor zu viele Fragen offen.
Viertens: Tesla und SpaceX haben ihre Facebook-Seiten vermutlich gar nicht gelöscht
Auch das passte einfach zu perfekt in die Geschichte: das böse Facebook auf der einen Seiteâââentsetzte Unternehmen sowie Nutzerinnen und Nutzer auf der anderen Seite. Höhepunkt: WhatsApp-MitgrĂŒnder Brian Acton rief bei Twitter dazu auf, Facebook den RĂŒcken zu kehrenâââund Tesla- und SpaceX-Chef Elon Musk stieg darauf ein.
Danach hieĂ es fast ĂŒberall, die Facebook-Seiten seien âgelöschtâ. Man kann Facebook-Seiten aber nicht nur löschen. Man kann sie auch deaktivieren. Kaum ein Bericht ging auf die Möglichkeit ein, dass man die Seiten vermutlich jederzeit wieder online schalten kann. Sie hatten jeweils rund 2,6 Millionen Fans; es wĂ€re ein Wahnsinn, sich die Möglichkeit zu nehmen, die auch ĂŒber Facebook zu erreichen. Mein Verdacht also: ein PR-Stunt.
Gerade bei Elon Musk mĂŒsste man es schlieĂlich besser wissen. Oder wie Vox es formuliert: âDer Typ, der ein Unternehmen namens âBoring Companyâ gegrĂŒndet und es dazu genutzt hat, 20.000 Flammenwerfer zu verkaufen. Der ein Unternehmen âThudâ genannt hat und niemandem verrĂ€t, wofĂŒr es da ist. Der dem Tesla einen Biowaffen-Verteidigungsknopf spendiert hat. Mit Musk ist es oft schwer zu sagen, ob es gerade wirklich um technische Innovation, eklatantes Trollen oder einen Mix aus beidem geht.â
Zusammengefasst: Alle wollen hören, dass nun der groĂe Aufstand gegen Facebook beginntâââElon Musk nutzt die Gunst der Stunde. Möglicherweise sind die Facebook-Seiten von Tesla und SpaceX aber gar nicht gelöscht, sondern nur verĂŒbergehend deaktiviert.
FĂŒnftens: Facebook hat nicht âschnell reagiertâ
Am Mittwoch hat Facebook angekĂŒndigt, dass die PrivatsphĂ€re-Tools ĂŒberarbeitet werden. Auf dem Smartphone seien die Einstellungen bald ânicht mehr auf fast 20 verschiedene Unterseiten verteilt, sondern an einem Ort zugĂ€nglichâ. Veraltete Einstellungsmöglichkeiten werden ĂŒberarbeitet. Nutzerinnen und Nutzern soll damit unter anderem klarer werden, welche Informationen mit Apps geteilt werden können und welche nicht.
Links alt, rechts neu: die PrivatsphĂ€re-Tools fĂŒr Facebook.
Es hieĂ in der Berichterstattung in dieser Woche oft, mit dieser Ănderung reagiere Facebook auf den Datenskandal. Das ist falsch. Facebook schreibt in seiner AnkĂŒndigung selbst, dass es an einer Vielzahl dieser Updates schon seit geraumer Zeit arbeiteâââund tatsĂ€chlich hatte es die neuen PrivatsphĂ€re-Tools schon im Januar angekĂŒndigt. Wer sich ein bisschen mit der Materie auskennt, weiĂ auĂerdem, dass es nicht möglich ist, zentrale Funktionen wie die PrivatsphĂ€re-Tools innerhalb von nur anderthalb Wochen zu ĂŒberarbeiten. FĂŒr Ănderungen dieser Art brauchen ganze Entwicklerteams in der Regel einige Monate.
Facebook dĂŒrfte es natĂŒrlich freuen, dass Menschen die ĂŒberarbeiteten PrivatsphĂ€re-Tools fĂŒr eine Reaktion auf den Datenskandal halten. Der Zeitpunkt ist gut gewĂ€hlt. So wie ihn Facebook schon öfter gut gewĂ€hlt hat: Facebook muss sich Kritik anhören. Facebook rĂ€umt ein, dass alles zu kompliziert ist. Facebook baut um. Das war schon 2010 so. Das ist heute so. Nach auĂen klingt es gut, wenn umgebaut wird. Nach innen kann es Nutzerinnen und Nutzer allerdings auch verwirren, wenn sich stĂ€ndig Dinge Ă€ndernâââwer hat schon Lust, sich in schöner RegelmĂ€Ăigkeit durch neue MenĂŒs zu wĂŒhlen?
Und dann ist da noch die AnkĂŒndigung von Facebook, dass es nun einfacher werde, die eigenen Daten runterzuladenââââschlieĂlich sind es deine Datenâ, schreibt Facebook. Da musste ich lachen. Denn diese Funktion wird es möglich machen, eine Kopie der eigenen Daten in einem Format runterzuladen, mit dem man sie bei anderen Onlineplattformen wieder hochladen können soll. Das klingt zwar wie ein toller, offener, kulanter Schritt von Facebook. Der Konzern verschweigt aber, dass diese Funktion in Wahrheit eine gesetzliche Vorgabe istâââwenn ab Ende Mai die neue Datenschutz-Grundverordnung in der EU gilt.
Zusammenfassung: Was als Reaktion auf den Datenskandal gehandelt wird, ist gar keine Reaktion auf den Datenskandal. Die neuen PrivatsphĂ€re-Tools waren wohl schon lange in Planung. Die Möglichkeit, die eigenen Daten runterzuladen, ist eine gesetzliche Vorgabe. Da muss also noch mehr kommen, wenn Facebook wirklich ein Interesse daran hat, das Vertrauen vieler Nutzer zurĂŒckzugewinnen. Wesentlich mehr.
Wie sehr flieĂt die Angst von Journalisten vor Facebook in ihre Berichterstattung ĂŒber Facebook ein?
Ann-Kathrin BĂŒĂŒsker twitterte vor ein paar Tagen sehr treffend: âDie Cambridge-Analytica-Geschichte ist wie gemacht, die Vorurteile all jener zu bestĂ€tigen, die Facebook schon immer irgendwie doof fanden. LĂ€sst sich in der Berichterstattung hervorragend beobachten.â
Facebook ist einer der Player im Netz, die unseren Berufsstand seit Jahren vor enorme Herausforderungen stellenâââunter anderem, weil Facebook zunehmend Kontrolle darĂŒber hat, welche Inhalte unserem Publikum ĂŒber den Newsfeed zugestellt werden und welche nicht. Deshalb gab es zuletzt die erhitzte Diskussion ĂŒber die AnkĂŒndigung von Facebook, mehr Inhalte von Familie und Freunden im Newsfeed anzuzeigenâââund weniger von Seiten.
Das ist jetzt ein bisschen persönliche Empirie, aber: Die gröĂte Schnappatmung haben in meiner Wahrnehmung die Leute bekommen, die sich von Facebook eh schon lange genervt fĂŒhltenâââund nun plötzlich den Grund dafĂŒr sahen, am besten ganz schnell die eigenen Auftritte zu löschen und es sich wieder auf der eigenen Website kuschelig zu machen und darauf zu warten, dass Nutzerinnen und Nutzer vorbeischauen. Dass erste Ănderungen im Algorithmus möglicherweise schon seit Herbst 2017 griffen, ging unter. Dass selbst Facebook nicht weiĂ, wie die Ănderungen am Ende insgesamt aussehen werden, erst recht.
Wie sehr spielt bei einer Reihe von Journalistinnen und Journalisten eigentlich die Angst vor Facebook eine Rolle in der BerichterstattungÂ ĂŒberFacebook? Diese Frage stelle ich mir mittlerweile bei vielen Berichten, die ich sehe, höre oder leseâââund aus denen das entsprechende Framing nur so herausplatzt.
Differenzieren, differenzieren, differenzieren!
Es ist so wichtig, dass wir ĂŒber all diese Dinge diskutieren. Aber es ist genauso wichtig, dass wir die richtigen Punkte diskutieren. Dass wir Facebook an der richtigen Stelle angreifen und bei den Fakten bleiben. Denn die Liste an Fehlern bei Facebook ist riesig:
- Facebook hat jahrelang die Bedenken von DatenschĂŒtzern ĂŒberhört und Anwendungen erlaubt, auf die Daten von Freunden ihrer Nutzer zuzugreifen. Dass dieses Tor so lange offen stand, Facebook es nicht fĂŒr nötig hielt, App-Entwickler scharf zu kontrollieren, und sich im Nachhinein mit schriftlichen BestĂ€tigungen zufrieden gab, dass verkaufte Daten vermeintlich gelöscht wurden, war massiv fahrlĂ€ssig.
- Facebook stellt nach wie vor zu wenig Transparenz her. Mir sind viele Warnhinweise zu klein, mir ist die Sprache in ihrer Ăbersetzung aus dem Englischen oft zu schwurbelig. Man muss Facebook aber auch zugute halten, dass der Hinweis, die Einstellungen zu ĂŒberprĂŒfen, seit lĂ€ngerer Zeit immer wieder ganz oben im Newsfeed angezeigt wird. Fakt ist eben auch: Viele Nutzerinnen und Nutzer sind zu faul, sich darum zu kĂŒmmern.
- Facebook hat in meiner Wahrnehmung bisher kein ernsthaftes Interesse daran, seine Nutzerinnen und Nutzer konsequent ehrlich zu informieren. Es wĂ€re spielend einfach, den betroffenen 50 Millionen Menschen eine E-Mail zu schicken, damit endlich auch eine Sicherheit da ist, ob man selbst betroffen war oder nicht. Ganzseitige Anzeigen in Tageszeitungen mit peinlichem Ăbersetzungspatzer reichen da aus meiner Sicht nicht. Und es wĂ€re auch fair, nicht den Eindruck entstehen zu lassen, man reagiere auf Kritik, obwohl man Funktionen neu einfĂŒhrt, die eh geplant waren.
- Facebook hat nach wie vor ein Kommunikationsproblem. Ăffentliche Reaktionen kommen zu spĂ€t, Statements gegenĂŒber der Presse gibt es zu selten, Ansprechpartner fĂŒr einfache Nutzerinnen und Nutzer fehlen komplett. Ein Unternehmen dieser GröĂe und mit so viel Geld im Rucksack könnte da ganz anders agieren.
- Facebook erkennt seine Verantwortung nicht. Die Strategie, immer und ĂŒberall erst einmal zu machen und erst dann zu schauen, was passiert, halte ich fĂŒr ĂŒberholt; es wĂ€re sinnvoll, sich in Zukunft schon vorher Gedanken ĂŒber die Auswirkungen einzelner MaĂnahmen und Funktionen zu machen. Verantwortungsvoll wĂ€re es auch, die Profile neuer Nutzerinnen und Nutzer standardmĂ€Ăig möglichst sicher und privat zu stellenâââund es den Leuten selbst zu ĂŒberlassen, ob sie sich mehr Ăffentlichkeit wĂŒnschen.
Ich bin nach wie vor der Ansicht, dass man Facebook regulieren muss. Es ist aus meiner Sicht kein ânormales Unternehmenâ mehr, sondern in den vergangenen Jahren zum elementaren Bestandteil unserer Kommunikations- und Informationsgesellschaft herangewachsenâââmit mehr als 30 Millionen Nutzern in Deutschland. Gleichzeitig bewegt sich das Unternehmen zu langsam, und die Gefahren, die soziale Netzwerke unter anderem fĂŒr unsere Demokratie mit sich bringen, haben sich zuletzt deutlich gezeigt.
FĂŒr die Debatte darĂŒber ist es aber wichtig, dass wir bei den Fakten bleiben und nicht in Legendenbildung und Populismus verfallenâââdenn so kommen wir dieser hochkomplexen Angelegenheit bestimmt nicht entgegen.
Hinweise und Props
Chris Kavanagh hat den (sehr guten) Artikel âWhy (almost) everything reported about the Cambridge Analytica Facebook âhackingâ controversy is wrongâgeschrieben. Er fĂŒhrt einige wichtige Punkte auf, die auch mir aufgestoĂen sindâââeinige Stellen erinnern deshalb an Chrisâ Artikel, der aber zum Teil tiefer in die Materie geht. Auch die sehr sortierten Einlassungen von Mirko Lange bei Facebook haben mich zu meinem Artikel inspiriert. Weitere Quellen habe ich direkt im Artikel verlinkt.
Falls ihr auf der Suche nach einer âFacebook-fĂ€higerenâ Version dieses Artikels seid: Ich habe den Artikel auch als Facebook-Notiz veröffentlicht.
Das ist Dennis Horn:
Dennis Horn
Seit ĂŒber 15 Jahren arbeite ich als Moderator, Reporter und Redakteur an der Schnittstelle zwischen Hörfunk, Fernsehen und Online. Ich berate MedienhĂ€user und Redaktionen zum digitalen Wandel. An Hochschulen und Akademien erklĂ€re ich das Internet. Und weil ich mich neben der Netzgemeinde auch der Papiergemeinde verpflichtet fĂŒhle, gehöre ich zu den Autoren von BĂŒchern wie âWir nennen es Wirklichkeitâ oder âUniversalcodeâ.
DataFacebook