Sheryl Sandberg
Facebook-Managerin: Wir haben uns geändert
Facebook-Geschäftsführerin Sheryl Sandberg hat bei einem Auftritt in München versichert, dass sich das Online-Netzwerk nach dem jüngsten Datenskandal und der Krise um Polit-Propaganda aus Russland geändert habe. "Wir sind nicht dasselbe Unternehmen wie 2016 oder auch noch vor einem Jahr", sagte Sandberg am Sonntag auf der Innovationskonferenz DLD.
FacebookFacebook unternehme mehr gegen hasserfüllte Beiträge und die Manipulation der öffentlichen Meinung, zählte die für das operative Geschäft zuständige Top-Managerin auf. Zudem habe das soziale Netzwerk den Nutzern mehr Kontrolle über ihre Privatsphäre gegeben und den DatenschutzDatenschutz verbessert. Gleichzeitig sei Facebook bewusst, dass das Unternehmen noch mehr tun müsse, um die Risiken vorherzusehen, die bei der Vernetzung von so vielen Menschen entstehen. Alles zu Datenschutz auf CIO.de Alles zu Facebook auf CIO.de
Kooperation mit dem BSI
Mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) wolle Facebook weiter arbeiten, um künftige Wahlen sicherer zu machen, sagte Sandberg. Facebook hatte bereits vor der vergangenen Bundestagswahl tausende Accounts gelöscht, die möglicherweise zur Manipulation der öffentlichen Meinung missbraucht werden sollten.
Facebook war im vergangenen Jahr vor allem nach dem Datenskandal um Cambridge Analytica in seine schwerste Krise geschlittert. Schon seit der US-Präsidentenwahlen 2016 steht das Online-Netzwerk zudem in der Kritik, weil es zu einfach war, über die Plattform die öffentliche Meinung zu manipulieren. Sandberg, die beim Online-Netzwerk auch für politische Fragen zuständig ist, geriet selbst unter Erklärungsdruck, nachdem bekannt wurde, dass Facebook eine PR-Firma engagiert hatte, um Kritiker in schlechtes Licht zu rücken.
Sandberg nutzte den Auftritt auch dafür, ausdrücklich das Geschäftsmodell und die Funktionsweise von Facebook die verteidigen. Die Facebook-Werkzeuge, die von wenigen missbraucht worden seien, seien auch die selben, die so vielen anderen Gutes bringen könnten. "Und dafür lohnt es sich, zu kämpfen." Sandberg verwies auch - wie schon oft zuvor - auf die Geschäftsmöglichkeiten für kleine und mittlere Unternehmen auf der Facebook-Plattform.
Die Managerin, die als eine Architektin des Facebook-Geschäftsmodells und rechte Hand von Gründer und Chef Mark Zuckerberg gilt, trat auf der DLD mit einem Vortrag zum Thema "Welches Internet wollen wir?" auf. Es müsse ein Internet sein, in dem sich die Menschen frei ausdrücken, aber auch sicher fühlen könnten, sagte Sandberg. Nach ihrem vorbereiteten Auftritt verließ sie sofort die Bühne. Ein Interview auf der Bühne - dem sich seinerzeit zum Beispiel auch ein heftig umstrittener Manager wie Uber-Mitgründer Travis Kalanick gestellt hatte - gab es nicht.
Treffen mit Politikern
Sandberg plant bei ihrer Europa-Reise auch diverse Treffen mit ranghohen deutschen Politikern. Sie in den nächsten Tagen in Berlin unter anderem mit Bundeswirtschaftsminister Peter Altmaier (CDU), Justizministerin Katarina Barley (SPD) und CDU-Chefin Annegret Kramp-Karrenbauer sprechen.
Vor Sandbergs DLD-Auftritt kündigte Facebook an, dass das Online-Netzwerk die Erforschung ethischer Fragen rund um künstliche Intelligenzkünstliche Intelligenz in München mit 7,5 Millionen Dollar unterstützen wird. Das Geld soll an das neue unabhängige Institut für Ethik in künstlicher Intelligenz in einer Partnerschaft mit der Technischen Universität München über einen Zeitraum von fünf Jahren fließen. Alles zu Künstliche Intelligenz auf CIO.de
Das Institut wolle diverse Aspekte künstlicher Intelligenz wie Fairness, Transparenz und Sicherheit untersuchen. Die Ergebnisse sollen Gesellschaft, Wirtschaft sowie Gesetzgebern zur Verfügung gestellt werden. Von Facebook kommt die Anschubfinanzierung, das Institut will sich aber auch um Geld von weiteren Partnern bemühen. Bayerns Wissenschaftsminister Bernd Sibler begrüßte das Engagement von Facebook.
Die Ausbreitung lernender Maschinen und künstlicher Intelligenz wirft immer mehr auch ethische Fragen auf. Dazu gehört zum Beispiel, inwieweit Vorurteile von Entwicklern in Algorithmen einfließen und von ihnen verstärkt werden könnten. Inzwischen wurden bereits Fälle bekannt, in denen zum Beispiel Software für Finanzdienstleistungen oder zur Auswahl von Job-Bewerbern einzelne soziale oder ethnische Gruppen diskriminierte.
Facebook steht auch im Zentrum dieser Debatten, zum Beispiel mit dem Vorwurf der sogenannten Filterblase, in der Nutzer von der Software nur Informationen aufgetischt bekommen, die ihre Weltsicht verstärken. Facebook setzt - genauso wie zum Beispiel auch Google - zudem auf künstliche Intelligenz, um Inhalte mit Hassrede oder Terrorpropaganda zu finden und zu löschen. (dpa/rs)