Vernehmlassung: Bundesgesetz über Kommunikationsplattformen und Suchmaschinen (KomPG)

 

Gerne beteiligen wir uns an der Vernehmlassung zum neuen Bundesgesetz über Kommunikationsplattformen und Suchmaschinen (KomPG) und bedanken uns für die Möglichkeit teilzunehmen. alliance F ist der überparteiliche Bund der Schweizer Frauenorganisationen. Wir vertreten die Interessen von rund 100 Mitgliederorganisationen und rund 1’000 Einzelmitgliedern und setzen uns seit 125 Jahren für die Interessen der Frauen und für die Gleichstellung der Geschlechter ein. Mit dieser Stellungnahme äussern wir uns zum Gesetz aus der Gleichstellungsperspektive.

alliance F begrüsst die Stossrichtung des KomPG, die negativen Auswirkungen von Kommunikationsplattformen und Suchmaschinen auf Nutzerinnen und Nutzer zu minimieren. Die Massnahmen des Gesetzesentwurfs sind aber zu wenig griffig, um wirksam gegen Risiken für Frauen und Mädchen vorzugehen. Aus vielen Studien ist bekannt, dass insbesondere Kommunikationsplattformen (und auch Anwendungen der Künstlichen Intelligenz) besondere Gefahren aus gleichstellungspolitischer Sicht beinhalten. So sind Frauen stärker von diskriminierenden und verletzenden Inhalten betroffen. Sie sind auch häufiger Opfer sexualisierter Darstellungen und Gewaltandrohungen. Hassrede, Stalking und andere Phänomene finden in den sozialen Medien statt, können aber auch offline verheerende Konsequenzen haben, z.B. Angstzustände, Depression. Die negative Auswirkung der “sozialen Medien” insbesondere auf die psychische Gesundheit von jungen Mädchen ist reichlich dokumentiert.

alliance F begrüsst die vorgeschlagenen Massnahmen des VE-KomPG grundsätzlich, fordert aber Verschärfungen und zusätzliche Massnahmen. Dazu zählen (einzelne Hinweise sind bei den einzelnen Gesetzesbestimmungen vermerkt): 

  1. Allgemein sollte der Fokus auch auf die negativen Folgen von rechtmässigen Inhalten erweitert werden und nicht bloss auf rechtswidrige Inhalte. Die bestimmungsgemässe "normale” Nutzung von Kommunikationsplattformen kann insbesondere Frauen und Jugendliche gefährden.   

  2. Die Plattformbetreiber sollen Verantwortung für die Auswirkungen ihrer Produkte übernehmen. Dazu gehören auch die Auswirkungen von personalisierter Werbung, auf Profiling von Personendaten basierte Empfehlungssysteme, dem absichtlichen Design, die suchtfördernden Dienste, und die auf Engagement und Nutzungsdauer optimierte Gestaltung. 

  3. Nutzerinnen und Nutzer sollen nicht nur bereits jetzt strafbare Inhalte melden können, sondern auch alle rechtswidrigen und diskriminierenden Inhalte, darunter geschlechtsspezifische Diskriminierung.1 

  4. Bei der Bewertung von Risiken (Art. 20) müssen zwingend auch geschlechtsspezifische Gewalt und negative Auswirkungen auf Jugendliche berücksichtigt werden. 

  5. Die Risikobewertung alleine reicht nicht aus. Analog zu Art. 35 des Digital Service Acts der EU muss auch eine Pflicht zur Minimierung der festgestellten Risiken vorgesehen werden. 

  6. Das BAKOM hat sämtliche Berichte, die ihm zugestellt werden müssen, und Verfügungen zwingend zu veröffentlichen. Die Kann-Bestimmungen in Art. 19, 20, 25 und 37 sollen als direkte Pflicht ausgestaltet werden. 

In den Erläuterungen zu den einzelnen Gesetzesartikeln finden sich weitere Präzisierungen im Detail.


Detaillierte Stellungnahme 

Erstes Kapitel: Allgemeine Bestimmungen 

Art. 1 Zweck  

Zustimmung mit Anpassung 

Gegenvorschlag: Dieses Gesetz bezweckt, die Verantwortung von Anbieterinnen von Kommunikationsplattformen und Suchmaschinen betreffend ihre negativen Auswirkungen auf Nutzerinnen und Nutzer und die Gesellschaft zu stärken. Insbesondere soll es die Rechte der Nutzerinnen und Nutzer stärken, die Transparenz bezüglich der Funktionsweise und der Risiken von Kommunikationsplattformen und Suchmaschinen fördern und die Risiken minimieren, die von ihnen ausgehen.  

Begründung / Bemerkung: Die Anbieterinnen müssen selber Pflichten tragen und das Gesetz soll den Blick auf die möglichen schädlichen Auswirkungen der bestimmungsgemässen Benutzung der Kommunikationsplattformen und Suchmaschinen ausweiten. 

Art. 3 Begriffe 

2. Kapitel: Pflichten der Anbieterinnen von Kommunikationsplattformen oder Suchmaschinen 

Zustimmung mit Anpassung 

Begründung / Bemerkung: In diesem Kapitel fehlt eine Bestimmung, die Anbieterinnen verpflichtet, die von ihnen ausgehenden Risiken auf Individuen und die Gesellschaft zu mindern. Einzelanmerkung dazu bei Art. 20. 

Art. 4 Meldeverfahren 

Art. 4 Abs. 1 Meldeverfahren 

Ablehnung 

Gegenvorschlag: Die Anbieterinnen von Kommunikationsplattformen müssen ein Verfahren einrichten, über das Nutzerinnen und Nutzer Inhalte melden können, auf die sie von der Schweiz aus zugreifen und die nach ihrer Ansicht rechtswidrig oder diskriminierend sind. 

Begründung / Bemerkung: Auch Inhalte, die nicht einen der aufgelisteten Straftatbestände erfüllen, können schädliche Auswirkungen auf Nutzerinnen und Nutzer haben. Insbesondere Frauen begegnen auf “sozialen Medien” oft Inhalten, die sie aufgrund ihres Geschlechts abwerten, oder sie werden ungefragt mit sexualisierten Inhalten konfrontiert (z.B. Verletzung der Persönlichkeitsrechte, etwa beim Entkleiden von Frauen auf X mit KI-Bot Grok). Mit dem Verweis auf rechtswidrige und diskriminierende Inhalte insgesamt wird mehr schädliches Verhalten erfasst. Die Rechtswidrigkeit umfasst auch Verstösse gegen das Gleichstellungsgesetz, womit geschlechtsspezifische Risiken von Kommunikationsplattformen und Suchmaschinen besser erfasst werden. Es ist wichtig zu betonen, dass Art. 261bis StGB aktuell geschlechtsspezifische Diskriminierung noch nicht erfasst. 

Art. 15 Werbung 

Art. 15 Abs. 1 Werbung 

Zustimmung mit Anpassung 

Gegenvorschlag: Sie müssen auch kennzeichnen, wer die Werbung beauftragt und finanziert hat. Zudem braucht es eine Kennzeichchnungspflicht für retouchierte Personenbilder. 

Begründung / Bemerkung: Gezielte Werbung kann die psychische Gesundheit von Nutzerinnen und Nutzer schädigen. Das gilt insbesondere für Frauen und Mädchen; man denke etwa an unrealistische Schönheitsideale oder sexualisierte Darstellungen von (jungen) Frauen. Dass Werbung zwingend als solche zu kennzeichnen ist, bringt schon eine gewisse Verbesserung. Zwingend muss auch kenntlich gemacht werden, wessen Interessen mit der Werbung gefördert werden. 

Art. 15 Abs. 2 Werbung 

Zustimmung mit Anpassung 

Gegenvorschlag:  

2 … Zugang über alle Parameter erhalten können… 

3 (neu): Werbung basierend auf besonders schützenswerten Personendaten der Nutzerinnen und Nutzer (Profiling) sowie Werbung basierend auf personenbezogenen Daten, wenn Anbieterinnen hinreichende Gewissheit haben, dass die betreffende Nutzerin oder der betreffende Nutzer minderjährig ist, ist verboten. 

Begründung / Bemerkung: Werbung, die auf Profiling basiert, greift in die Privatsphäre von Nutzerinnen und Nutzer ein und begünstigt ein Geschäftsmodell, das Unsicherheiten von verletzlichen Gruppen ausnutzt. Mindestens Minderjährige sollten vor dieser Form der Werbung geschützt werden.  

Art. 17 Kommerzielle Inhalte von Nutzerinnen und Nutzern 

Zustimmung mit Anpassung 

Gegenvorschlag (Bestehendes als Abs. 1) 

2 Die Anbieterinnen müssen sicherstellen, dass Inhalte nach Abs. 1 markiert werden und der gewerbliche Charakter des Inhalts für andere Nutzerinnen und Nutzer klar erkennbar ist. Sie müssen auch kennzeichnen, wer den Inhalt beauftragt und finanziert hat. 

3 Anbieterinnen von Kommunikationsplattformen kennzeichnen auf für Nutzerinnen und Nutzer gut sichtbare Weise Konten, welche automatisiert Inhalt posten. 

Begründung / Bemerkung Was für Werbung gilt, gilt umso mehr für kommerzielle Inhalte von Influencerinnen und Influencer. Für diese Botschaften sind insbesondere junge Nutzerinnen und Nutzer besonders empfänglich, weil sie Authentizität und eine persönliche Verbindung vorgeben. Influencer-Werbung muss zwingend gekennzeichnet sein. 

Ähnliches gilt für Beiträge von Bots: Diese sind per Definition auf die Täuschung des Publikums angelegt, indem sie eine menschliche Absenderin vorgeben. 

Art. 18 Empfehlungssysteme 

8. Abschnitt: Transparenzbericht und Risikobewertung 

Zustimmung mit Anpassung 

Begründung / Bemerkung: Diese Risikobewertung allein reicht nicht. Es braucht zwingend eine Pflicht für die Anbieterinnen, die festgestellten Risiken auch zu minimieren (siehe Vorschlag bei Art. 20). 

Art. 19 Transparenzbericht 

Zustimmung mit Anpassung 

Gegenvorschlag:  

6 Die Anbieterinnen von Kommunikationsplattformen oder Suchmaschinen veröffentlichen den Transparenzbericht in geeigneter Form. Das BAKOM veröffentlicht die Berichte ebenfalls. 

7 Die Informationen betreffend die Art und Anzahl der einschränkenden Massnahmen nach Artikel 6 Absatz 2 müssen dem BAKOM ohne Wiedergabe der betroffenen Inhalte übermittelt werden. Das BAKOM veröffentlicht die Informationen in einer Datenbank. 

Begründung / Bemerkung: Der Gesetzesentwurf auferlegt den Anbieterinnen und Anbietern vergleichsweise leichte Pflichten. Damit diese aber immerhin ihre angestrebte Wirkung erzielen können, müssen alle Erkenntnisse an die Öffentlichkeit gelangen. Das BAKOM soll deshalb den Transparenzbericht zwingend veröffentlichen müssen; die Kann-Bestimmung ist nicht zielführend. 

Art. 20 Risikobewertung 

Ablehnung 

Gegenvorschlag:  

1 Die Anbieterinnen von Kommunikationsplattformen oder Suchmaschinen müssen jährlich eine Risikobewertung vornehmen, Massnahmen ergreifen, um die identifizierten Risiken zu minimieren, und die Ergebnisse der Bewertung sowie die ergriffenen Risikominimierungsmassnahmen in einem Bericht darlegen. Dieser gibt umfassend Auskunft über die systemischen Risiken in der Schweiz, die durch die Kommunikationsplattformen und Suchmaschinen entstehen oder verstärkt werden, sowie über die Massnahmen, die Anbieterinnen unternehmen, um diese Risiken zu verhindern. 

2b. die nachteiligen Auswirkungen auf die Ausübung von Grundrechten der Nutzerinnen und Nutzen, insbesondere in Bezug auf geschlechtsspezifische Gewalt, das körperliche und geistige Wohlbefinden einer Person und den Schutz Minderjähriger und; 

4 Die Anbieterinnen müssen dem BAKOM den Bericht über die Ergebnisse der Risikobewertung und Risikominimierungsmassnahmen gemeinsam mit dem Evaluationsbericht nach Art. 25 übermitteln und ihn veröffentlichen. Das BAKOM veröffentlicht den Bericht ebenfalls. 

Begründung / Bemerkung: Eine Risikobewertung alleine ist nicht zielführend. Die Anbieterinnen müssen auch eine Verantwortung tragen, die identifizierten Risiken zu mindern. Art. 20 ist um eine entsprechende Pflicht zu ergänzen, wie sie auch in der EU in Art. 35 DSA vorgesehen ist.  

Bei der Definition der systemischen Risiken öffnet der VE-KomPG eine weitere Lücke zum DSA, die nicht nachvollziehbar ist. Die Risikoanalyse sollte auch geschlechtsspezifische Gewalt, das körperliche und geistige Wohlbefinden und den Schutz von Minderjährigen umfassen. 

Bezüglich Veröffentlichung des Berichts (Absatz 4): Siehe Begründung bei Art. 19. 

Art. 25 Evaluations- und Massnahmenbericht 

Enthaltung 

Gegenvorschlag:  

3 … übermitteln. Das BAKOM veröffentlicht die Berichte ebenfalls. 

Begründung / Bemerkung: Siehe Begründung zu Art. 19 und 20. 

Art. 30 Gebühren 

Zustimmung 

Begründung / Bemerkung: Die Finanzierung der Aufsichtsstelle kann zu Abhängigkeiten führen und die Unabhängigkeit der Aufsichtstätigkeit schmälern. Gebühren für Aufsichtsverfahren schaffen aber keine Fehlanreize und sind unproblematisch. Vgl. aber Bemerkungen zu Art. 31. 

Art. 31 Aufsichtsabgabe 

Ablehnung 

Gegenvorschlag: Streichen. 

Begründung / Bemerkung: Wenn das BAKOM seine Aufsichtstätigkeit mit einer Aufsichtsabgabe finanziert, schafft das einen Interessenkonflikt. Es ist dann für seinen Bestand – auch für die Weiterbeschäftigung seiner Angestellten – auf das Geld genau der Unternehmen angewiesen, die es beaufsichtigen soll. Das Verursacherprinzip ist die falsche Logik: Es handelt sich um Tätigkeiten im öffentlichen Interesse, die über den allgemeinen Staatshaushalt getragen werden müssen.  

Art. 37 Information der Öffentlichkeit 

Zustimmung mit Anpassung 

Gegenvorschlag: 1 […] 

2 Es veröffentlicht seine Verfügungen und macht sie online zugänglich. 

Begründung / Bemerkung: Siehe Begründung zu Art. 19, 20 und 25. 

 

Rückmeldung zum: Fragebogen / Fragen im Begleitschreiben 

Rückmeldung zur Gesamtvorlage 

Eher Zustimmung 

Detaillierte Stellungnahme 

Frage 1 zum Meldeverfahren 

Wird die Pflicht zur Bereitstellung eines Meldeverfahrens im Grundsatz befürwortet? 

Begründung / Bemerkung: Ja 

Frage 2 zum Meldeverfahren 

Soll das Meldeverfahren auf die in der Vorlage aufgeführten Tatbestände beschränkt bleiben, soll es reduziert oder gestrichen werden oder soll es umgekehrt auf alle rechtswidrigen Inhalte bzw. auf bestimmte rechtswidrige Inhalte ausgeweitet werden?      

Begründung / Bemerkung: Das Meldeverfahren soll ausgeweitet werden. Auch Inhalte, die nicht einen der aufgelisteten Straftatbestände erfüllen, können schädliche Auswirkungen auf Nutzer und Nutzerinnen haben. Insbesondere Frauen begegnen auf “sozialen Medien” oft Inhalten, die sie aufgrund ihres Geschlechts abwerten, oder sie werden ungefragt mit sexualisierten Inhalten konfrontiert. Mit dem Verweis auf rechtswidrige und diskriminierende Inhalte insgesamt wird mehr schädliches Verhalten erfasst. Die Rechtswidrigkeit umfasst auch Verstösse gegen das Gleichstellungsgesetz, womit geschlechtsspezifische Risiken von Kommunikationsplattformen und Suchmaschinen besser erfasst werden. Es ist wichtig zu betonen, dass der Art. 261bis StGB geschlechtsspezifische Diskriminierung nicht erfasst. 

Frage 1 zum Kinder- und Jugendschutz 

Würden Sie eine Pflicht der geregelten Dienste zur Ergreifung von geeigneten und verhältnismässigen Massnahmen, um für ein hohes Mass an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen, im Grundsatz begrüssen? 

Begründung / Bemerkung: Ja 

Frage 2 zum Kinder- und Jugendschutz 

Artikel Detail / andere Informationen Sollten Sie eine solche Pflicht begrüssen, welche der folgenden Massnahmen würden Sie priorisieren? 

-  Bereitstellung eines Meldesystems für Inhalte, die für Minderjährige nicht geeignet sind 

-  Alterskontrollen 

-  Bereitstellung eines Systems zur elterlichen Kontrolle 

- Verbot von Werbung gestützt auf Profiling gemäss Art. 5 Buchstabe f des Datenschutzgesetzes (DSG), wenn hinreichende Gewissheit besteht, dass der betreffende Nutzende minderjährig ist 

- Weitere Regelungen zum Kinder- und Jugendschutz? 

Begründung / Bemerkung: Der Jugendschutz muss noch stärker im Gesetz verbindlich geregelt werden. Minderjährige müssen mindestens so gut vor Gefahren im Netz (bspw. digitaler, sexualisierter Gewalt, Cybermobbing und Hassreden) geschützt werden, wie sie es in der EU bereits sind. Zum gesetzlichen Schutz zählen: verbindliche, wirksame Massnahmen direkt bei den Anbieteren, datensparsame Altersverifikation, die Regulierung/das Verbot suchtfördernder Algorithmen, Prüfung und Durchsetzung von Nutzungsverboten gewisser digitaler Plattformen für unter 16- Jährige sowie die Schaffung einer nationalen Aufklärungskampagne zur Unterstützung kantonaler Medienbildung in Familie und Schule.