Spielraum bei Meldungen für Plattformen
Für Ohme hat das abweichende Meldeverhalten der Netzwerke mehrere Gründe: "Erstens: Plattformen sind unterschiedlich aktiv bei der Inhaltsmoderation. Zweitens: Plattformen nehmen die Meldepflicht unterschiedlich ernst." So befinde sich die Plattform X gerade in einem Umbruch und sei "nicht dafür bekannt, sich an Regulierungen zu halten, die nicht auch strikt durchgesetzt werden". TikTok wiederum versuche "eine gute Figur zu machen".
Verbesserungsbedarf sieht auch Digitalisierung-Expertin Julia Kloiber, die für das Tech-Think-Tank Superrr Lab arbeitet: "Aktuell gibt es einiges an Spielraum, was Umfang, Genauigkeit und die Interpretation der Vorgaben angeht." Dieser Spielraum erschwere die Vergleiche zwischen den Diensten. Zudem basiere die Datensammlung nur auf Selbstauskünften der Plattformen. "Die Unternehmen können in ihren Transparenzberichten viel behaupten. Wichtig ist, dass es auch eine gründliche Prüfung der Angaben gibt."
EU-Kommission untersucht Einhaltung
Die gibt es laut EU-Kommission. Es liege zwar in der Verantwortung der Plattformen, alle Entscheidungen zur Inhaltsmoderation unverzüglich zu übermitteln. Die EU-Kommission könne bei dem Verdacht eines Verstoßes aber Zugang zu Daten beantragen, um die Einhaltung der Transparenzvorschriften zu überprüfen, hieß es auf Nachfrage von der Brüsseler Behörde. Schwankungen bei gemeldeten Inhalten lägen an verschiedenen Strategien und unterschiedlichen Inhalten auf den Plattformen.
Grundsätzlich laufen auf Grundlage des DSA bereits Untersuchungen, ob sich unter anderem X und Tiktok an die DSA-Vorschriften halten und genug gegen die Verbreitung illegaler Inhalte tun. Eine Entscheidung und damit auch mögliche Strafen gibt es aber bisher nicht. Sollte die Kommission zu dem endgültigen Schluss kommen, dass Anbieter gegen den DSA verstoßen, können Geldbußen von bis zu sechs Prozent des weltweiten Jahresumsatzes verhängt werden.
Wichtige Entscheidungen für Demokratie und Gesellschaft
Kloiber bewertet die Datenbank insgesamt als "wichtigen Meilenstein", der "Licht in die Black Box der online Dienste" bringt. "Wir haben in den letzten Jahren gesehen, welche Auswirkungen die Moderation von Inhalten auf unsere Demokratie und Gesellschaft hat - im Vorfeld von Wahlen muss sichergestellt werden, dass Desinformation und gemeldete Inhalte gut und schnell moderiert werden", fordert Kloiber. Auch bei der anstehenden Europawahl vom 6. bis 9. Juni 2024 ist die Beeinflussung auf Online-Plattformen eine Gefahr, wie das Europäische Parlament bereits im vergangenen Jahr warnte.
Kloiber wünscht sich, "dass durch die Transparenz ein Wetteifern zwischen den Plattformen beginnt, welche Plattform die höchsten Standards und die beste Qualität bei der Moderation von Inhalten hat." Ohme hofft, "dass in einem Jahr schon eine genauere und auch besser durchgesetzte Datenlage existiert, die weitere Analysen und Aussagen erlaubt".
Klar ist, dass die Datenmenge künftig weiter wachsen wird. Seit 17. Februar müssen alle Anbieter von Online-Plattformen, Suchmaschinen und Online-Diensten mit Ausnahme kleiner Unternehmen Daten über ihre Entscheidungen zur Inhaltsmoderation vorlegen. Noch fließen diese Daten nicht in die Transparenzdatenbank. Doch auch diese sollen nach den Plänen der EU-Kommission künftig auf der Website der DSA-Transparenzdatenbank verfügbar sein, wenn die technischen Voraussetzungen geschaffen seien, sagte ein Kommissionssprecher.