17.01.2024Fachbeitrag

Update IP, Media & Technology Nr. 89

Transparenz- und Schutzpflichten für Anbieter von Online-Plattformen nach dem Digital Services Act (DSA)

Am 16. November 2022 ist der Digital Services Act (DSA) in Kraft getreten. Die ersten Normen und Pflichten aus der Verordnung gelten bereits. Ab dem 17. Februar 2024 gilt der DSA dann in Gänze und unmittelbar in den EU-Mitgliedstaaten. Einen Überblick über die Verordnung und die ersten Pflichten, die Besonderheiten in Bezug auf Online Marketing und die Umsetzung auf nationaler Ebene haben wir Ihnen hier bereits vorgestellt. Spätestens ab Mitte Februar dieses Jahres gelten die Transparenz- und Schutzpflichten als zusätzliche Bestimmungen für Anbieter von Online-Plattformen der Art. 23, 27, 28 DSA, auf die wir in diesem Beitrag genauer eingehen.

I.  Geltungsbereich

Die Bestimmungen der Art. 19-28 DSA gelten für Online-Plattformen.

Als Online-Plattform definiert Art. 3 lit. i DSA

„einen Hostingdienst, der im Auftrag eines Nutzers Informationen speichert und öffentlich verbreitet, sofern es sich bei dieser Tätigkeit nicht nur um eine unbedeutende und reine Nebenfunktion eines anderen Dienstes oder um eine unbedeutende Funktion des Hauptdienstes handelt, die aus objektiven und technischen Gründen nicht ohne diesen anderen Dienst genutzt werden kann, und sofern die Integration der Funktion der Nebenfunktion oder der unbedeutenden Funktion in den anderen Dienst nicht dazu dient, die Anwendbarkeit dieser Verordnung zu umgehen“.

Dies gilt jedoch dann nicht, wenn diese Dienste nur als Infrastruktur dienen, wonach sogenannte Cloud-Computing- und Web-Hostingdienste nicht umfasst sind. Sie zählen zu den Vermittlungsdiensten, deren Haftungsbestimmungen in den Art. 4 ff. DSA zu finden sind.

Ebenfalls vom Geltungsbereich ausgenommen sind nach Art. 19 DSA Anbieter von Online-Plattformen, bei denen es sich um Kleinst- oder Kleinunternehmen gemäß der Empfehlung 2003/361/EG handelt.

Nach dieser KMU-Definition der EU sind mithin Unternehmen ausgenommen, sofern sie

  • weniger als 50 Mitarbeitende
  • und einen Jahresumsatz oder eine Jahresbilanzsumme von höchstens 10 Mio. EUR

haben.

Diese Ausnahme gilt jedoch nur, solange die genannte Schwelle nicht überschritten wird und so sollten Unternehmen mindestens einmal jährlich prüfen, ob die Voraussetzungen einer Ausnahme nach Art. 19 DSA noch vorliegen oder ob auch für sie die erweiterten Transparenz- und Schutzpflichten des DSA und insbesondere der Art. 19-28 DSA gelten.

Vom Geltungsbereich umfasst sind dabei grundsätzlich bereits Unternehmens-Websites, aber auch Apps, Online-Plattformen und auch Schnittstellen zu Drittanbietern.

II. Maßnahmen und Schutz vor missbräuchlicher Verwendung (Art. 23 DSA)

Während der Umgang mit Nutzern, die die Plattformdienste missbräuchlich verwenden, bislang den Unternehmen selbst oblag und vielfach gerade bei Account-Sperrungen zu Unsicherheiten geführt hat, liegt dank des DSA nun eine Reihe von Maßnahmen vor, die die Anbieter zum Schutz vor missbräuchlicher Verwendung ihrer Plattform treffen können.

Als Besonderheit gilt dabei, dass sowohl Nutzer erfasst sind, die „häufig und offensichtlich rechtswidrige Inhalte bereitstellen“ (Art. 23 Abs. 1), aber auch diejenigen, die die Melde- und Beschwerdefunktionen missbräuchlich ausnutzen und „die häufig offensichtlich unbegründete Meldungen oder Beschwerden einreichen“ (Art. 23 Abs. 2).

Stellen Nutzer auf den Plattformen nun häufig und offensichtlich rechtswidrige Inhalte bereit, etwa in Form von Postings, so sind diese Nutzer hinsichtlich einer beabsichtigten Sperrung des Accounts vorab zu warnen, bevor ihre Accounts im Falle einer Zuwiderhandlung für einen angemessenen Zeitraum gesperrt werden können. Daraus geht gleichsam hervor, dass der Sperrung zwingend eine Warnung vorausgehen muss. Eine konkrete zeitliche Bestimmung, wie weit im Voraus die Warnung vor einer beabsichtigten Sperrung auszusprechen ist, ist allerdings nicht gegeben.

Konkrete Angaben dazu, innerhalb welches Zeitraums eine Warnung oder Sperrung zu erfolgen hat, fanden sich bisher im Netzwerkdurchsetzungsgesetz (NetzDG). Das NetzDG sah vor, dass offensichtlich rechtswidrige Inhalte gemäß § 3 Abs. 2 Nr. 2 NetzDG innerhalb von 24 Stunden gesperrt werden müssen. Bei sonstigen rechtswidrigen Inhalten galt eine Sperrfrist von sieben Tagen gemäß § 3 Abs. 2 Nr. 3 NetzDG.

Durch das Digitale-Dienste-Gesetz (DDG), das derzeit als Referentenentwurf vorliegt (wir berichteten), treten das NetzDG und das Telemediengesetz (TMG) außer Kraft. Konkrete Löschfristen gibt es damit künftig nicht mehr. Mussten die Anbieter also bislang innerhalb von 24 Stunden aktiv werden, müssen sie künftig nur noch „zeitnah, sorgfältig, frei von Willkür und objektiv“ (Art. 16 Abs. 6 DSA) entscheiden.

Bisher lag die Verantwortung zur Überwachung der Einhaltung des NetzDG beim Bundesamt für Justiz (BfJ). Zukünftig wird diese Aufgabe von der „Koordinierungsstelle für digitale Dienste in der Bundesnetzagentur“ übernommen, die zugleich auch die zentrale Ansprech- und Meldestelle für Verstöße sein wird.

In engem Zusammenhang steht der Schutz vor einem Missbrauch der Melde- und Beschwerdefunktion von Beiträgen und Inhalten. Auch in derartigen Fällen können die Accounts – nach vorheriger Warnung – für einen angemessenen Zeitraum gesperrt werden.

Der DSA gibt damit einen Handlungsrahmen für mögliche Einschränkungen vor, den die Anbieter in ihren jeweiligen AGB oder Nutzungsbedingungen ausgestalten können. War vor dieser Regelung mitunter streitig, ob die Sperrung eines Accounts durch einen Anbieter eine unangemessene Benachteiligung für den Nutzer i.S.d. § 307 Abs. 2 Nr. 1 BGB bedeuten könnte, ist mit dem DSA nunmehr klargestellt, dass eine zeitlich befristete Sperrung nach vorheriger Warnung als beabsichtigte Reaktion vorgesehen ist und damit auch nicht unangemessen benachteiligend ist.

Gleichwohl ist vor einer beabsichtigten Sperrung die Meinungsfreiheit im Blick zu behalten. Einer möglicherweise nicht gerechtfertigten Sperrung versucht der DSA durch das Merkmal der „offensichtlichen Rechtswidrigkeit“ gerecht zu werden.

„Inhalte sollten als offensichtlich rechtswidrig und Meldungen oder Beschwerden als offensichtlich unbegründet gelten, wenn es für einen Laien ohne inhaltliche Analyse klar ersichtlich ist, dass die Inhalte rechtswidrig bzw. die Meldungen oder Beschwerden unbegründet sind.“ (ErwG 63)

Bislang war gemäß § 7 Abs. 4 TMG bei Erfolglosigkeit anderweitiger Abhilfemöglichkeiten auch eine Netz-/DNS-Sperre möglich. Der bisherige § 7 Abs. 4 TMG wird künftig im § 8 DDG-E weitergeführt. Umfasst sind nunmehr sämtliche digitale Dienste, die von einem Nutzer bereitgestellte Informationen in einem Kommunikationsnetz übermitteln oder den Zugang zu einem Kommunikationsnetz vermitteln. Der Adressatenkreis umfasst damit von nun an sämtliche Access-Provider und nicht nur – wie bisher – die W-LAN-Anbieter. Die Regelung löst damit den Konflikt zur bisherigen TMG-Norm, wonach § 7 Abs. 4 TMG in europarechtskonformer Auslegung nach dem EuGH-Urteil (C-314/12) zu erweitern war.

Zur Lösung von Streitigkeiten zwischen Nutzern und Anbietern von Online-Plattformen, die nicht mittels des internen Beschwerdemanagements gelöst werden können, kann eine außergerichtliche Streitbeilegung nach den Vorgaben des Art. 21 DSA gewählt werden. Eine gerichtliche Klärung bleibt dennoch unbenommen.

III. Transparenzpflichten beim Einsatz von Empfehlungssystemen (Art. 27 DSA)

Priorisierte und durch Algorithmen in der Reihenfolge der Anzeige auf die jeweiligen Nutzer zugeschnittene Beiträge und Informationen sind ein wesentlicher Erfolgsfaktor für viele Plattformen und stellen zugleich einen zentralen Bestandteil der Geschäftstätigkeit dar.

Der Anspruch, den Nutzern individuell auf sie zugeschnitten dasjenige bieten zu können, was ihnen gefällt oder sie interessiert, dient dem Ziel, für eine möglichst lange Nutzungszeit auf der Plattform zu sorgen. Dabei besteht aber – auch unfreiwillig – die Gefahr, in sogenannte Echokammern zu geraten.

Der Ausdruck „Echokammer“ beschreibt das Phänomen, bei dem Mediennutzer vorwiegend Informationen aufnehmen, die ihre eigenen Ansichten bestätigen. Die Nutzer neigen dazu, sich nur wenig mit Inhalten auseinanderzusetzen, die ihre Meinung in Frage stellen. Dies kann in der Konsequenz zur Bildung mehr oder weniger abgeschlossener Netzwerke und Filterblasen führen, in denen diese einseitigen Meinungen wachsen und sich erhärten können.

Die Priorisierung anhand von Empfehlungssystemen dient den Plattformen aber auch als Möglichkeit, um eigene Angebote und Beiträge priorisiert anzuzeigen und darauf aufmerksam zu machen und damit eine Werbemöglichkeit in eigener Sache zu schaffen.

Art. 3 lit. s DSA definiert Empfehlungssysteme als

„ein vollständig oder teilweise automatisiertes System, das von einer Online-Plattform verwendet wird, um auf ihrer Online-Schnittstelle den Nutzern bestimmte Informationen vorzuschlagen oder diese Informationen zu priorisieren, auch infolge einer vom Nutzer veranlassten Suche, oder das auf andere Weise die relative Reihenfolge oder Hervorhebung der angezeigten Informationen bestimmt“.

Dabei ist es unerheblich, ob die Anzeige der Informationen durch eine Nutzeranfrage erfolgt, bei der die Nutzer aktiv nach Empfehlungen suchen, oder ob die Plattform selbstständig Empfehlungen abgibt. Empfehlungssysteme treffen auf Basis von Algorithmen Entscheidungen darüber, welche Informationen einem Nutzer angezeigt werden, aber mitunter auch, in welcher Reihenfolge sie angezeigt werden.

Art. 27 DSA soll sicherstellen, dass die Nutzer darüber informiert werden, wie die Plattformen Empfehlungssysteme einsetzen und dadurch die Art und Weise beeinflussen können, wie Informationen auf der Plattform angezeigt werden. Dabei gilt es zu beachten, dass die Information zu den Empfehlungssystemen klar und für die Nutzer leicht verständlich dargestellt wird. Als Maßstab dient dabei der durchschnittliche Nutzer, sodass dieser nachvollziehen kann, wie die Informationen, die er angezeigt bekommt, priorisiert werden.

Dabei müssen zwar nicht alle Auswahlkriterien offengelegt werden, aber dennoch die Wichtigsten mitsamt einer kurzen Erklärung, warum eben jene Kriterien berücksichtigt worden sind.

Eine Einflussnahmemöglichkeit der Nutzer oder gar eine eigene Aus- und Abwahl von Auswahlkriterien – also die Erstellung eines individuellen, nutzereigenen Empfehlungssystems – ist im DSA allerdings nicht vorgesehen.

Die Kritik am Markt ist gleichwohl groß: Die Problematik der Echokammern ist hinlänglich bekannt und die bloße Information über den Einsatz und die Funktionsweise von Empfehlungsmechanismen wird dem nicht abhelfen können. Sie kann aber ein Bewusstsein bei den Nutzern schaffen und möglicherweise dazu beitragen, die angezeigten Informationen – je nach Inhalt – noch einmal zu hinterfragen.

Im Falle mangelnder Umsetzung kann ein Bußgeld nach dem DDG drohen, das bis zu sechs Prozent des Jahresumsatzes ausmachen kann (§ 25 Abs. 6 DDG-E). Daneben steht einem jeden Nutzer das Recht zur Beschwerde nach Art. 53 DSA offen. Für einen Schadensersatzanspruch, der gemäß Art. 54 DSA grundsätzlich möglich ist, bedarf es des Nachweises eines kausalen Schadens – in der Praxis eine bedeutsame Hürde.

IV. Besondere Mechanismen zum Schutz von Minderjährigen (Art. 28 DSA)

Auch das politische Ziel der Europäischen Union, den Minderjährigenschutz stärker in den Fokus zu rücken, findet im DSA seinen Niederschlag.

„Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, müssen geeignete und verhältnismäßige Maßnahmen ergreifen, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb ihres Dienstes zu sorgen.“ (Art. 28 Abs. 1)

Allerdings sind die Anbieter nicht verpflichtet, zusätzliche personenbezogene Daten zu verarbeiten, um festzustellen, ob der Nutzer minderjährig ist, Art. 28 Abs. 3 DSA.

Ob den Plattformen die zusätzliche Aufgabe des Minderjährigenschutzes zuteilwird, richtet sich vielmehr danach, ob die Plattform selbst in ihrer Ausrichtung auf minderjährige Nutzer abzielt. Dies kann dann der Fall sein, wenn die Plattform es in ihren allgemeinen Geschäftsbedingungen gestattet, dass Minderjährige den jeweiligen Dienst nutzen können oder aber dem Anbieter in anderer Weise bekannt wird, dass seine Nutzer minderjährig sind; etwa wenn der Anbieter personenbezogene Daten seiner Nutzer dergestalt verarbeitet, dass das Alter der Nutzer daraus hervorgeht.

Stärker ist aber noch darauf abzustellen, ob sich der Dienst auch aktiv an Minderjährige richtet. Dabei gilt es jedoch, die Ausrichtung und den Zweck der Plattform zu berücksichtigen. Eine nichtöffentliche Fachhandwerker-Plattform etwa, die Erklärungs- und Schulungsvideos und -materialien bereithält, kann – insbesondere zu Ausbildungszwecken – auch minderjährigen Auszubildenden zugänglich sein. Ein besonderer Schutz dieser Nutzergruppe, wie er für soziale Netzwerke zu gelten hat, um ein höchstes Maß an Privatsphäre zu garantieren, wird angesichts der klaren fachlichen Ausrichtung aber hierbei gerade nicht erforderlich sein.

Art. 28 Abs. 2 DSA enthält zudem noch besondere Regularien für personalisierte Werbung gegenüber ersichtlich minderjährigen Nutzern. Über die Besonderheiten im Online Marketing nach dem DSA haben wir bereits berichtet.

V. Fazit

Die Regelungen zu den Transparenz- und Schutzpflichten nach dem Digital Services Act mögen einfach und in weiten Teilen selbstverständlich erscheinen. Nach wie vor gilt jedoch mit Blick auf den bevorstehenden Ablauf der Umsetzungsfrist am 17. Februar 2024 genau zu prüfen, ob eine Einhaltung dieser Vorschriften für die eigene Plattform erforderlich sein kann. Bei mangelnder oder unzureichender Umsetzung kann ein Bußgeld nach dem DDG drohen. Neben einem oder statt eines Bußgeldes kann ein Verstoß gegen den DSA zudem möglicherweise nach § 3a UWG abgemahnt werden, soweit es sich um Marktverhaltensregeln handelt.

Als PDF herunterladen

Ansprechpartner

Sie benutzen aktuell einen veralteten und nicht mehr unterstützten Browser (Internet-Explorer). Um Ihnen die beste Benutzererfahrung zu gewährleisten und mögliche Probleme zu ersparen, empfehlen wir Ihnen einen moderneren Browser zu benutzen.