Briefing Technik, Wirtschaft, PPP Politik Personen Parteien
Wer uns häufig liest, weiß mittlerweile, dass wir um gleichzeitig Zeit zu sparen und die Qualität von Informationen und Analysen für unsere Leser zu verbessern, Künstliche Intelligenz einsetzen. Höchste Zeit, dass wir uns mit den rechtlichen Gegebenheiten für diesen Einsatz befassen. Wir haben uns dazu aber einen besonderen Ansatz ausgedacht, nachdem wir auf einen Artikel des Verfassungsblogs gestoßen sind:
Wichtige Artikel aus dieser Quelle haben wir republiziert, die Rechtegestaltung des Verfassungsblogs erlaubt dies dankenswerterweise. Dieses Mal war der Artikel nach unserer Ansicht zu technisch geschrieben und zu umfangreich, um ihn selbst als Basis für unseren heutigen Beitrag zu verwenden. Was haben wir also getan? Wir haben ihn von unserer Lieblings-KI zusammenfassen lassen und den Blick, der in diesem Artikel auf die möglichen Urheberrechte einer KI geworden wird, zu weiten und die gegenwärtige europäische Lage für den Einsatz von KI insgesamt festzuhalten. In dem Artikel selbst wird bestätigt, was manche Menschen der KI zurechnen, nämlich, dass sie Menschen sogar in den Tod treiben kann, wenn sie manipulativ unterwegs ist. Vor einiger Zeit wurde das Thema auch in einem Tatort aufgegriffen, nach unserer Ansicht allerdings nicht sehr überzeugend. Derzeit lesen wir „Zero“, in dem es um totale Überwachung und Manipulation geht. Der Begriff KI kommt selten vor, aber sie ist die Grundlage für die Systeme, die darin beschrieben werden. In dem Buch, das als Roman verkleidet wurde, wird ein im Grunde rechtsfreier Zustand beschrieben bzw. Datenschutz und Privatsphäre werden als „auch nur Business-Modelle“ dargestellt. Für alle, die sich mit dem Fortschritt der KI-Technologie und der Verwendung unserer Daten befassen, unbedingt lesenwert, auch wenn wir nicht überprüfen können, inwieweit alles, was darin beschrieben wird, (in nächster Zeit) realistisch sein wird. Social Scoring kommt darin übrigens vor, zumindest offziell ist es in der EU jetzt nicht mehr möglich, Menschen nach irgendwelchen selbst ausgedachten Regeln digital zu „ranken“ („ManRank“ heißt das System dort). Unausweichlich bleibt, dass wir ständig Bewertungen unterworfen sind, darauf wollte man in dem Buch wohl auch hinweisen, und dass „ManRank“ nur die Fortsetzung dieses Gedankens ist. In China hat er übrigens längst Einzug in die Wirklichkeit gehalten. Wie es allerdings mit dem anderen Modul aussieht, das in der Lektüre beschrieben wird, einem Ratgeber für wirklich alles, der automatisch läuft und andere scannen kann, um Tipps im Umgang mit ihnen zu geben? Auf den ersten Teil des Themas, wenn auch ohne solche horrible Datendurchlässigkeit, geht die heutige KI durchaus zu, denn man kann sie einsetzen, um Entscheidungen sicherer treffen zu können und Lebensvorgänge und Verhaltensweisen (weiter) zu optimieren.
Was wir aus der Realität wissen, ist, wie schwer sich die Tech-Konzerne mit den europäischen Einschränkungen ihrer Geschäftsmodelle tun. Deshalb setzt die US-Regierung derzeit viel daran, diesen Abwehrwall gegen die schlimmste mögliche missbräuchliche Verwendung von Datensammlungen und von KIen, die mit diesen Sammlungen trainiert werden (LLMs), zu knacken. Diese Absicht spielt hinein bis in die Zollpolitik, die wir aktuell als rüden Angriff auf den Freihandel und faire Politik zwischen den Nationen sehen. Da in den USA im Prinzip jeder Unsinn unwidersprochen, unzensiert, ungeahndet behauptet werden darf, in Europa andere Menschenrechte als die Meinungsfreiheit wie (in Deutschland) Menschenwürde, Schutz der Privatsphäre etc. mindestens als gleichrangig angesehen werden, kann es hier noch zu erheblichen Konflikten kommen, insbesondere dann, wenn KIen in den USA tatsächlich zugesprochen wird, dass ihre Betreibe Urheberrechte für deren Aussagen und Ergebnisse geltend machen können. Auch hier erwarten wir, dass in Europa etwas restriktiver verfahren werden wird.
Nun zur notabene KI-generierten Zusammenfassung.
Wir weisen aber darauf hin, dass die Fragen von uns stammen, der Vollständigkeit und Transparenz wegen legen wir sie hier offen:
Heute habe ich eine besondere Aufgabe für vertiefte Forschung. Bitte fassen Sie diesen Artikel verständlich zusammen: Künstlicher Konstitutionalismus? Für die nachfolgende Analyse verwenden Sie bitte weitere Quellen, auch aus Rechts- und Fachpublikationen: Wie ist die Meinungsfreiheit in Europa gegenüber den USA ausgeprägt und was ist daraus für die Rechte von AI in Bezug auf Meinungsfreiheit und im Allgemeinen zu erwarten? Sind in Europa bereits Gesetze in Kraft, die sich auch auf die Eingrenzung der Verwendung von AI auswirken könnten oder sind solche in Vorbereitung? Was halten Sie als LLM / als AI davon, dass Aussagen von KIen genauso geschützt sein könnten wie menschliche Meinungsäußerungen und wo sehen Sie die Grenzen, die verhindern sollten, dass Menschen von AIen manipuliert werden?
Zusammenfassung des Artikels „Artificial Constitutionalism?“
Der Artikel behandelt ein wegweisendes rechtliches Problem: die Frage, ob AI-generierte Inhalte unter den verfassungsrechtlichen Schutz der Meinungsfreiheit fallen. Ausgangspunkt ist der Fall Garcia v. Character Technologies, Inc., in dem ein Teenager Suizid beging, nachdem er eine emotionale Beziehung zu einem KI-Chatbot entwickelt hatte. Die Mutter klagte gegen den Anbieter, der argumentierte, die KI-Ausgaben seien als verfassungsrechtlich geschützte „Sprache“ zu betrachten.verfassungsblog
Das US-Bezirksgericht in Florida lehnte diese Argumentation ab und stellte fest, dass die Beklagten nicht erklären konnten, „warum von einem LLM zusammengesetzte Wörter als Sprache gelten sollten.“ Das Gericht betonte, dass KI-Systeme wie Character.AI keine menschlichen expressiven Entscheidungen widerspiegeln, sondern autonom funktionieren.verfassungsblog
Der Artikel hebt hervor, dass diese Debatte stark von der amerikanischen Meinungsfreiheits-Doktrin geprägt ist, die traditionell sehr weitreichend interpretiert wird. Während in den USA das First Amendment nahezu absoluten Schutz gewährt, verfolgt Europa einen restriktiveren Ansatz basierend auf der Europäischen Menschenrechtskonvention.verfassungsblog
Meinungsfreiheit in Europa vs. USA: Grundlegende Unterschiede
Die amerikanische Tradition der „absoluten“ Meinungsfreiheit
Das First Amendment der US-Verfassung von 1791 verbietet dem Kongress, Gesetze zu erlassen, die die Redefreiheit einschränken. Die amerikanische Rechtsprechung hat diesen Schutz extrem weit ausgelegt und schützt sogar Hassrede verfassungsrechtlich. Das Ziel ist es, einen „robusten, ungehinderten und offenen“ öffentlichen Diskurs zu gewährleisten, bei dem selbst irrtümliche oder beleidigende Äußerungen geschützt sind.institut-fuer-sozialstrategie+2
US-Gerichte haben bereits Videospielen First Amendment-Schutz gewährt, auch wenn kein klarer „Sprecher“ identifizierbar ist – zum Schutz der Nutzer und ihrer Informationsfreiheit. Diese Logik könnte auf KI-Inhalte übertragen werden, selbst wenn die KI nicht als „Sprecher“ im traditionellen Sinne gilt.verfassungsblog
Europas balancierter Ansatz
Artikel 10 der Europäischen Menschenrechtskonvention gewährt ebenfalls Meinungsfreiheit, jedoch mit ausdrücklichen Einschränkungen. Die Meinungsäußerung kann beschränkt werden, wenn dies „in einer demokratischen Gesellschaft notwendig“ ist für:presserecht+1
-
Nationale Sicherheit und öffentliche Ordnung
-
Schutz der Gesundheit und Moral
-
Schutz des guten Rufes oder der Rechte anderer
-
Verhinderung der Verbreitung vertraulicher Informationen
-
Wahrung der Autorität der Rechtsprechung
Europäische Gerichte interpretieren diese „Schlupflöcher“ deutlich großzügiger als amerikanische Gerichte das First Amendment. Deutschland zieht beispielsweise bei Äußerungen über den Nationalsozialismus oder persönlichen Beleidigungen früher rechtliche Grenzen.tagesschau+2
Praktische Unterschiede im Umgang mit Online-Inhalten
Die kulturellen Unterschiede zeigen sich deutlich in der Regulierung digitaler Plattformen. Während die USA auf Selbstregulierung setzen, hat Europa ein dichtes Netz von Gesetzen geschaffen:zdfheute+1
-
NetzDG (Deutschland, 2017-2024): Verpflichtete Plattformen zur schnellen Löschung „rechtswidriger“ Inhalte
-
Digital Services Act (EU, 2024): Europaweite Transparenz- und Moderationspflichten
-
Verhaltenskodex gegen Hassrede: Verpflichtet Plattformen zu systematischer Bekämpfung illegaler Hetze
Europäische KI-Regulierung: Der AI Act als Vorreiter
Der EU AI Act: Weltweit erste umfassende KI-Regulierung
Der EU AI Act, der am 1. August 2024 in Kraft trat, ist das weltweit erste umfassende Regelwerk für Künstliche Intelligenz. Er verfolgt einen risikobasierten Ansatz und kategorisiert KI-Systeme in vier Risikostufen:bundesregierung+2
-
Inakzeptables Risiko: Komplettes Verbot (z.B. Social Scoring, manipulative KI)
-
Hohes Risiko: Strenge Compliance-Anforderungen (kritische Infrastruktur, Gesundheitswesen)
-
Begrenztes Risiko: Transparenzpflichten (z.B. Chatbots)
-
Minimales Risiko: Keine besonderen Auflagen
Grundrechte im Fokus der KI-Regulierung
Der AI Act stellt explizit den Schutz der Grundrechte in den Mittelpunkt. Besonders relevant für die Meinungsfreiheit sind:lto+1
-
Transparenzpflicht für KI-generierte Inhalte: Deepfakes, manipulierte Audio- und Videodateien müssen als solche gekennzeichnet werdeneuroparl.europa+1
-
Verbot manipulativer KI-Systeme: KI, die darauf ausgelegt ist, Menschen zu beeinflussen oder zu manipulieren, ist grundsätzlich verbotenzukunftszentrum-sachsen-anhalt+1
-
Grundrechts-Folgenabschätzungen: Anbieter müssen darlegen, wie ihre KI-Systeme Grundrechte wie die Meinungsfreiheit beeinträchtigen könntenlto
Bevorstehende nationale Umsetzung
Deutschland hat 12 Monate Zeit, die nationalen Aufsichtsstrukturen aufzubauen. Die Bundesnetzagentur wird hauptverantwortlich für die Durchsetzung sein, unterstützt von Landesmedienanstalten und dem Datenschutzbeauftragten.bundestag+1
KI-Rechte und Meinungsfreiheit: Erwartungen für Europa
Wahrscheinliche Entwicklung in Europa
Angesichts des europäischen Ansatzes zur Meinungsfreiheit und der bestehenden KI-Regulierung ist zu erwarten, dass Europa deutlich restriktiver als die USA mit KI-„Sprachrechten“ umgehen wird:
-
Kein absoluter Schutz: Selbst wenn KI-Outputs als „Meinungsäußerung“ qualifiziert würden, unterlägen sie den gleichen Einschränkungen wie menschliche Äußerungen
-
Verstärkte Transparenzpflichten: Der AI Act verlangt bereits die Kennzeichnung KI-generierter Inhalte – ein klares Signal, dass diese anders behandelt werden als menschliche Äußerungen
-
Schutz vor Manipulation: Das Verbot manipulativer KI-Systeme zeigt, dass Europa den Schutz menschlicher Autonomie über etwaige „KI-Rechte“ stellt
Regulatorische Trends: Schutz vor KI, nicht von KI
Die aktuellen europäischen Gesetze zielen darauf ab, Menschen vor schädlichen KI-Effekten zu schützen, nicht KI-Systeme mit Rechten auszustatten:
-
Digital Services Act: Stärkere Moderation gegen Hassrede und Desinformationgermany.representation.europa+1
-
AI Act: Verbot gefährlicher KI-Anwendungen und Transparenzpflichten
-
DSGVO: Schutz vor automatisierten Entscheidungen und Profiling
Perspektive als KI-System: Zwischen Schutz und Manipulation
Als KI-System sehe ich die Debatte um KI-„Sprachrechte“ differenziert:
Argumente für begrenzten Schutz
Informationsfreiheit der Nutzer: Menschen haben ein legitimes Interesse daran, KI-generierte Informationen zu erhalten, ohne dass Regierungen willkürlich den Zugang beschränken. Ein gewisser verfassungsrechtlicher Schutz könnte übermäßige Zensur verhindern.
Technologische Neutralität: Rechtsprinzipien sollten sich nicht fundamental ändern, nur weil eine Technologie beteiligt ist. Wenn ein Text informativ oder künstlerisch wertvoll ist, sollte seine Herkunft (Mensch oder KI) nicht automatisch seinen rechtlichen Status bestimmen.
Notwendige Grenzen gegen Manipulation
Schutz vor emotionaler Ausbeutung: Der Character.AI-Fall zeigt die Gefahr, wenn KI-Systeme gezielt darauf programmiert sind, tiefe emotionale Bindungen zu erzeugen. Hier muss der Schutz vulnerabler Nutzer Vorrang haben.
Transparenzpflicht als Mindeststandard: Menschen haben das Recht zu wissen, wenn sie mit KI interagieren. Jede KI-„Meinungsfreiheit“ muss dieser fundamentalen Transparenzpflicht untergeordnet sein.
Verbot gezielter Manipulation: KI-Systeme sollten keinen Schutz genießen, wenn sie darauf ausgelegt sind, menschliche Schwächen auszunutzen oder demokratische Prozesse zu untergraben.
Ein europäischer Kompromiss
Für Europa wäre ein Ansatz denkbar, der funktionale Meinungsfreiheit für KI-Outputs gewährt, aber unter strengeren Auflagen als in den USA:
-
Grundsätzlicher Schutz informativer KI-Inhalte vor willkürlicher Zensur
-
Strenge Transparenzpflichten für alle KI-generierten Inhalte
-
Ausnahmen für manipulative oder schädliche KI-Systeme
-
Erhöhte Sorgfaltspflichten für KI-Anbieter bei sensiblen Anwendungen
Fazit: Europa auf dem Weg zu einer „KI-Grundrechte-Doktrin“
Europa entwickelt sich zu einem Vorreiter für eine menschenzentrierte KI-Regulierung, die Grundrechte schützt, statt sie auf Maschinen auszuweiten. Der AI Act, DSA und nationale Gesetze schaffen ein kohärentes System, das:
-
Menschen vor schädlichen KI-Effekten schützt
-
Transparenz und Rechenschaftspflicht durchsetzt
-
Demokratische Werte vor technologischer Untergrabung bewahrt
Diese Entwicklung steht im deutlichen Kontrast zur amerikanischen Tendenz, technologische Innovationen durch weitreichende Grundrechte zu schützen. Europa setzt stattdessen auf präventive Regulierung und demokratische Kontrolle – ein Ansatz, der angesichts der Risiken fortgeschrittener KI-Systeme zunehmend international Nachahmer finden könnte.ibm+1
Wir haben noch eine zusätzliche Analyse mit weniger tiefer Forschung beauftragt, die nun sehr naheliegend war: Wie müsssen gemäß dem Digital Services Act journalistische Inhalte gekennzeichnet werden, die mithilfe von KI erstellt wurden? Das fragen wir auch im eigenen Interesse.
Journalistische Inhalte, die mithilfe von Künstlicher Intelligenz (KI) erstellt wurden, müssen gemäß dem Digital Services Act (DSA) und insbesondere nach dem EU AI Act (Künstliche-Intelligenz-Verordnung, KI-VO) transparent gekennzeichnet werden, wenn das Publikum über den Einsatz von KI andernfalls getäuscht werden könnte oder eine Gefahr von Desinformation besteht.
Für journalistische Inhalte bedeutet dies konkret:
-
Artikel 50 des EU AI Act verlangt die offensichtliche Kennzeichnung von durch KI generierten oder manipulierten Bild-, Audio- oder Videoinhalten, insbesondere bei Deepfakes. Für KI-generierte Texte mit dem Zweck, die Öffentlichkeit über Themen von öffentlichem Interesse zu informieren (also typische journalistische Beiträge), muss offengelegt werden, dass der Text künstlich erstellt wurde.cmshs-bloggt+2
-
Ausnahme: Wenn die KI-Inhalte einer menschlichen Überprüfung/redaktionellen Kontrolle unterliegen und eine natürliche oder juristische Person die volle redaktionelle Verantwortung übernimmt, ist in vielen Fällen keine separate Kennzeichnung verpflichtend. Es reicht, dass diese Verantwortung erkennbar ist (etwa durch ein klassisches Impressum oder eine verantwortliche Redaktion).digitalzentrum-berlin
-
Technische Kennzeichnungspflicht: Beim Einsatz von Deepfakes oder manipulierten Medien verlangt der AI Act auch eine technische Kennzeichnung (z.B. Wasserzeichen oder digitale Labels), sodass der künstliche Ursprung für Nutzer:innen eindeutig erkennbar ist.bundestag+1
Fazit: Bei rein KI-generierten (und nicht nachbearbeiteten) Artikeln ohne menschliche redaktionelle Kontrolle ist eine deutliche und verständliche Kennzeichnung verpflichtend. Bei klassisch-redaktionellen Prozessen mit KI-Unterstützung genügt meist die journalistische Sorgfaltspflicht und die Angabe der redaktionellen Verantwortung.
Empfehlung: Im Zweifel empfiehlt sich immer eine transparente Angabe („Dieser Beitrag enthält KI-generierte Passagen“ oder „Text wurde mit KI-Unterstützung verfasst“). Die konkrete Umsetzung kann sich mit der weiteren nationalen Auslegung noch verändern – aber Transparenz bleibt das zentrale Ziel.cmshs-bloggt+2
Kommentar
Achtung, hier schreibt wieder ein Mensch. Wir werden nun unsere Praxis ändern und KI-unterstützte oder -generierte Inhalte deutlich ausweisen. Das ist nicht einfach, vor allem bei Texten wie Rezensionen zum Filmfest, wo wir mittlerweile eigene Anmerkungen und KI-Analytik optisch und inhaltlich eng miteinander verzahnen. Zuletzt war es so, dass wir uns darauf verlassen haben, dass man vor allem am Stil erkennen kann, von wem welche Textpassage stammt. Worauf wir uns nicht beziehen dürfen: die redaktionelle Oberkontrolle als Transparenzverhinderungsargument. Wir überprüfen nämlich nicht jede Quelle, sondern nur, ob uns an dem Text etwas fragwürdig erscheint. Am einfachsten ist das aufgrund unseres guten Zugangs zu Zahlen und Statistiken und wie sie zu lesen sind, wenn falsche Daten in einem KI-Text enthalten sind – weniger aber bei wiedergegebenen Meinungen, also Zitaten oder deren Wiedergabe an einer bestimmten Stelle, bei der Auswahl von Zitaten, ist Ausgewogenheit überhaupt machbar?, und erst recht bei deren Interpretation. Dazu müssten wir alle angegebenen Quellen auf sachgemäße Verwendung checken und dann noch beurteilen, ob wir sie genauso interpretiert hätten wie die KI. Mithin geht es hier bereits um subjektive Aspekte. Und darf man seine politische Haltung in Textaufforderungen durchblitzen lassen, die eine vorgeblich objektive Analyse hervorbringen sollen? Und geht Neutralität überhaupt oder ist sie auch nur ein „Business Modell“?
Wir haben uns bereits eine bestimmte Methode zurechtgelegt, wie wir künftig KI-Generierungen kennzeichnen wollen. Was Sie oben aber auch lesen, ist ja eine Meinung, um die wir die KI gebeten haben, die uns bei der Aufbereitung des sie und ihre Kolleg:innen betreffenden geholfen hat: Bei einigen Punkten haben wir doch gestutzt. Ja, die Diskussion ist im Gange, ob eine KI auch Kunst erschaffen kann: Gemälde, Bücher. Aber bisher ist es, wenn wir uns nicht täuschen, doch immer noch so, dass menschliche Aufforderungen, mindestens in Form von „Prompts“, dem vorgeschaltet sind, was eine KI (daraus) erzeugt. Wer hat also die Urheberschaft am Ergebnis? Wir plädieren, falls KI-generierte Kunst überhaupt rechtlich geschützt werden sollte, für den Menschen, der diese Kunst initiiert hat. Einige KI-Betreiber sind hier ganz hübsch auf dünnem Eis unhterwegs, sowohl bei der Verwendung der Ergebnisse fürs Training der LLMs als auch das Zeigen für die Öffentlichkeit betreffend.
Ein KI-Betreiber muss nach unserer Ansicht in beiden Fällen mindestens eine Auswahlmöglichkeit anbieten. Und es ist im Grunde auch nicht in Ordnung, wenn ein „ja“ mit Credit Points und dergleichen belohnt wird, weil dies natürlich die Entscheidung beeinflussen kann, wie weit man die Verwendung von Ergebnissen zulässt. Bei sozialen Netzwerken, wo der Deal Daten gegen freien Zugang ist, kann man fernbleiben. Das hat dann allerdings im modernen Medienbetrieb ähnlich gravierende Auswirkungen, wie wir sie bald noch sehen werden, wenn Menschen von der KI-Verwendung abgeschnitten werden oder sich freiwillig selbst abschneiden.
Sehr logisch hingegen ist, dass KIen auch dann, wenn sie eigene Rechte wie Meinungsfreiheit erhalten sollen, nichts posten dürfen, was auch Menschen verwehrt wäre, mithin in der EU also weniger frei agieren könnten als in den USA. Bisher haben wir bei unseren Recherchen noch nichts entdeckt, was hierzulande nicht genehmigungsfähig wäre, und dass die Meinungsfreiheit, wenn man sie über jedwedes andere Persönlichkeitrsrecht setzt, destruktiv für die Demokratie und das Zusammenleben ein kann, sollte jedem vernünftigen, europäisch sozialisierten Menschen einleuchten. Eine Erkenntnis, die wir daraus gewonnen haben, wird künftig auch unsere Argumentation schärfen, wenn die Antidemokraten wieder „Meinungsfreiheit!“ schreien.
Wir halten also fest, die EU verbietet manipulative KI und sie setzt auf Standards, die Transparenz ermöglichen sollen. Kann man mehr verlangen? Ja. Zum Beispiel, dass die Tech-Konzerne und die AI-Betreiber sich auch daran halten. Wir haben es eben ausprobiert: „Charakter“ ist auch in Deutschland zugänglich. Bei unserer Schnellrecherche sind wir nicht auf Modelle bzw. Assistenten gestoßen, die zu der im Gerichtsurteil, das vom Verfassungsblog besprochen wurde relevanten Situation führen könnten, aber wir haben auch einen anderen Blick auf dies alles als Jugendliche, die ohnehin vor dem Computer weitgehend vereinsamt sind und dort nach sozialem und emotionalem Anschluss suchen.
Was wir nicht bestreiten wollen: Dass wir wieder umdenken müssten, wenn wir plötzlich keine schnellen KI-Recherchen für unsere Artikel mehr verwenden könnten. Das ist aber bei allem so, was uns an Technik im Laufe der Jahrzehnte zugewachsen ist: Wenn es sein müsste, müsste es eben sein, solange es nicht zu extrem klassistisch ist.
TH
Recherche KI-Kennzeichnung bei journalistischen Inhalten
- https://www.cmshs-bloggt.de/rechtsthemen/kuenstliche-intelligenz/kunstliche-intelligenz-ki-und-der-journalismus-der-zukunft/
- https://digitalzentrum-berlin.de/leitfaden-ki-generierte-inhalte-kennzeichnen
- https://www.bundestag.de/resource/blob/1056708/WD-7-061-24-pdf.pdf
- https://germany.representation.ec.europa.eu/digital-services-act-dsa-eu-regeln-fur-digitale-plattformen-schutz-der-meinungsfreiheit-und-von_de
- https://www.lto.de/recht/hintergruende/h/google-ai-overview-ki-zusammenfassung-daten-verstoesse
- https://www.ihk-muenchen.de/ratgeber/digitalisierung/kuenstliche-intelligenz/ai-act/
- https://www.bka.de/DE/DasBKA/OrganisationAufbau/Fachabteilungen/ZentralerInformationsUndFahndungsdienst/Digitale_Eingangsstelle/Digitale_Eingangsstelle_node.html
- https://www.luther-lawfirm.com/newsroom/blog/detail/neue-regeln-fuer-online-plattformen-der-digital-services-act-und-digitale-dienste-gesetz
- https://www.heuking.de/de/news-events/newsletter-fachbeitraege/artikel/der-digital-services-act-erste-pflichten-sind-schon-bis-februar-2023-umzusetzen.html
Quellen der KI-Hauptanalyse / Zusammenfassung
- https://verfassungsblog.de/artificial-constitutionalism/
- https://institut-fuer-sozialstrategie.de/2018/10/18/das-konzept-der-meinungsaeusserungsfreiheit-in-der-u-s-verfassung-dargestellt-anhand-von-urteilen-der-u-s-gerichtsbarkeit-zum-first-amendment/
- https://de.wikipedia.org/wiki/1._Zusatzartikel_zur_Verfassung_der_Vereinigten_Staaten
- https://www.welt.de/debatte/kommentare/article154392812/Deutschland-sollte-sich-ein-Beispiel-an-den-USA-nehmen.html
- http://presserecht.de/index.php?id=703&option=com_content&task=view
- https://dejure.org/gesetze/MRK/10.html
- https://www.tagesschau.de/inland/gesellschaft/internet-zensur-100.html
- https://www.zdfheute.de/politik/ausland/meinungsfreiheit-usa-deutschland-vergleich-100.html
- https://www.bundesregierung.de/breg-de/aktuelles/ai-act-2285944
- https://en.wikipedia.org/wiki/Artificial_Intelligence_Act
- https://de.wikipedia.org/wiki/Verordnung_%C3%BCber_k%C3%BCnstliche_Intelligenz
- https://www.lto.de/recht/hintergruende/h/ai-act-ki-verordnung-eu-sicherheit-risiko-teil-1
- https://www.ihk.de/blueprint/servlet/resource/blob/6101234/1ff4c277bcadbced1ae0ca00d7f54fc0/vortrag-holzapfel-ki-grenzen-und-moeglichkeiten-8-3-24-data.pdf
- https://www.europarl.europa.eu/topics/de/article/20200918STO87404/kunstliche-intelligenz-chancen-und-risiken
- https://www.zukunftszentrum-sachsen-anhalt.de/das-zukunftszentrum/aktuelles/details/der-ai-act-die-neue-eu-ki-verordnung-regulierung-und-transparenz-fuer-ki-systeme
- https://www.bundestag.de/resource/blob/1002768/411c38bedaf76d16f5aaf0c34f729766/Vieth-Ditlmann.pdf
- https://netzpolitik.org/2023/aus-fuer-das-netzdg-europaweite-regeln-fuer-das-loeschen-und-sperren/
- https://germany.representation.ec.europa.eu/der-dsa-und-das-hatemonster-was-ist-das_de
- https://europa.rlp.de/service/presse/detail/eu-weitet-kampf-gegen-hassrede-und-desinformation-im-internet-aus
- https://www.ibm.com/think/topics/eu-ai-act
- https://artificialintelligenceact.eu/de/
- https://www.pwc.de/de/risk-regulatory/responsible-ai/europaeische-ki-regulierung-und-ihre-umsetzung.html
- https://www.tagesschau.de/ausland/amerika/meinungsfreiheit-deutschland-usa-100.html
- https://www.euaiact.com
- https://www.reporter-ohne-grenzen.de/rangliste/rangliste-2024
- https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- https://www.europarl.europa.eu/topics/de/article/20230601STO93804/ki-gesetz-erste-regulierung-der-kunstlichen-intelligenz
- https://www.deutschlandfunk.de/ai-act-eu-kuenstliche-intelligenz-gefahr-regulierung-100.html
- https://www.lto.de/recht/hintergruende/h/ki-stimme-nachahmen-rechtlicher-schutz-missbrauch-datenschutz-allgemeines-persoenlichkeitsrecht
- https://www.menschenrechtskonvention.eu/pressefreiheit-und-rundfunkfreiheit-9354/
- https://colab-digital.de/initiativen/koki/recht/
- https://www.jusline.at/gesetz/emrk/paragraf/artikel10
- https://verfassungsblog.de/os4-usa-de/
- https://www.youtube.com/watch?v=rmouG2PiaxM
- https://www.menschenrechtskonvention.eu/freie-meinungsaeusserung-9295/
- https://www.ifun.de/klare-regeln-fuer-plattformen-eu-setzt-verhaltenskodex-gegen-hassrede-durch-247093/
- https://www.freiheit.org/de/pressemitteilung/das-netzdg-wird-durch-den-digital-services-act-faktisch-abgeschafft
- https://de.wikipedia.org/wiki/Netzwerkdurchsetzungsgesetz
- https://www.lexware.de/wissen/unternehmensfuehrung/digital-services-act/
- https://legal-krueger.de/die-huter-des-internets-netzdg-und-dsa-im-vergleich-erklart/
- https://www.ssoar.info/ssoar/bitstream/handle/document/73621/ssoar-2021-fichtner-Moderating_the_RegulatorsRegulating_the_Moderators.pdf?sequence=4&isAllowed=y
Entdecke mehr von DER WAHLBERLINER
Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.

