Briefing 211, 193 | Wirtschaft, Gesellschaft, KI, AI, Fake News, Politik, Datenschutz, Privatsphäre, Arbeitsplätze
Erst vor wenigen Wochen haben wir uns mit der Künstlichen Intelligenz auseinandergesetzt – anhand der Befürchtungen, die Menschen in Bezug auf sie haben. Jetzt kommt die Antwort, nämlich das KI-Regulierungsgesetz der EU.
Der „AI Act“ stuft KI-Anwendungen in bestimmte Risikoklassen ein, an denen sich der Umfang der gesetzlichen Auflagen orientiert. Verboten wird etwa Gesichtserkennung im öffentlichen Raum. Der Digitalverband Bitkom begrüße das Gesetz grundsätzlich, sagte Verbandschef Achim Berg. Allerdings gelte es, im Trilog eine Überregulierung abzuwenden. Der Begriff der Hochrisiko-Anwendung dürfe nicht zu weit gefasst werden. „Es kommt darauf an, nur solche Anwendungen scharf zu regulieren, von denen in der Anwendungspraxis tatsächlich massive Gefahren und Risiken ausgehen können.“ Quelle
Für uns ist das Verbot der Gesichtserkennung im Öffentlichen Raum ein absolutes Muss. Es ist zwar verführerisch, Überwachungskameras mit Systemen auszustatten, die zum Beispiel die Gesichter von Tätern erkennen, die im Öffentlichen Raum Gewalt ausüben, wohingegen eine klassische Überwachugnskamera den Nachteil hat, dass etwas schon passiert ist und der oder die Täter entwichen sind, bis reagiert werden kann. Aber zum einen kann man sich so vermummen, dass auch die beste KI ein Gesicht nicht erkennen kann, während Corona war das besonders evident, zum anderen bietet diese Technik unfassbare Eingriffsmöglichkeiten in die Privatautonomie des Menschen. Vor allem die chinesische Methode, Social Scoring mit KI einzurichten, klingt nach europäischem Verständnis selbst kriminell und ist unbedingt zu vermeiden. Quelle
Was wir immer so seltsam finden, ist, dass angeblich linke Menschen dieses chinesische System einer auch durch technische Unterstützung maximal rigiden Steuerung so positiv kommentieren bzw. das System positiv kommentieren, ohne auf diese Problematik auch nur einzugehen. Wie viel die KI in Europa tatsächlich darf, hängt aber vom Einzelfall ab, denn die vier Risikoklassen sind ausfüllungsgeeignet und können somit hoffentlich die Weiterentwicklung der KI seit dem Beginn der Beratungen zum Regulierungsgesetz vor zwei Jahren berücksichtigen.
KI ist nichts anderes als eine Menge von mathematischen Methoden und Algorithmen, bei denen man herausgefunden hat, dass sie in der Lage sind, Dinge zu tun, bei denen wir bisher gedacht haben, sie seien nur Menschen vorbehalten. Vor 20 Jahren hat eine KI zum Beispiel zum ersten Mal gegen einen menschlichen Großmeister im Schach gewonnen. KI kann aber auch komplexe Bilder oder Musikstücke erzeugen. Es ist wichtig zu verstehen, dass – egal wie erstaunlich das ist – dahinter keine echte Intelligenz steht. Zumindest nicht in dem Sinne, wie wir vielleicht Intelligenz verstehen. Es sind sehr genau definierte, aber eben oft recht einfache mathematische Verfahren, die auf große Datenmengen angewendet werden. (Quelle wie vor)
Die Möglichkeit, riesige Datenmengen rasch zu Ergebnissen zu verarbeiten, macht die KI gleichwohl sehr einflussreich. Wir haben in den letzten Monaten allein bei einer an sich traditionellen Technik wie dem Internet-Browser Bing nacheinander die Einführung von ChatGPT und dem Imag Creator erlebt, die schon beide sehr faszinierend sind. Bei uns ist die erste Begeisterung für ChatGPT etwas abgeebbt, weil komplexe Anforderungen eben nicht so einfach verstanden werden, es auch mal zu Missverständnissen kommt und weil Daten immer wieder überprüft werden müssen, sowohl daraufhin, ob die relevanten Sätze gezogen wurden, was vor allem bei unterschiedlichen Statistikansätzen von verschiedenen Seiten problematisch ist, die in eine Anforderung nicht ohne Weiteres eingebaut werden können, als auch auf Aktualität. Die Qualität der Recherche können wir aber vor einer Veröffentlichung kontrollieren, bei der uns ChatGPT unterstützt, und darum geht es: Dass Systeme nicht einfach machen dürfen, sondern dass wir die Möglichkeit des Checks und der Korrektur in der Hand behalten. Selbst dann, wenn die KI technisch alles richtig macht. Es könnte durchaus sein, dass sie sich dabei aus dem ethisch gewünschten und gesetztlich erlaubten oder auch nur bisher sicher definierten Rahmen hinausbewegt. Vielleicht sogar gerade deshalb, weil sie eben nicht in dem Sinne, wie wir es verstehen, selbstständig denkt.
Das Gute daran: Die KI, die den Menschen abschaltet, weil er kognitiv und ethisch zu fehlerhaft ist, wird es noch lange nicht geben. Eher schaltet der Mensch sich doch noch selbst ab, weil immer mehr Staaten mit Atomwaffen spielen, deren Führungen nicht vertrauenswürdig sind. Es bräuchte eher eine KI, die weltweit einheitlich agiert und die möglichen Einsätze dieser Waffen ganz restriktiv reguliert. Andererseits verlören sie dadurch das Erpressungspotenzial und den Schrecken, die gerade auf der Unberechenbarkeit ihres Einsatzes durch einen Fingerdruck durchgeknallter Diktatoren basieren.
Künstliche Intelligenz wird noch lange nicht der menschlichen Dummheit einen Riegel vorschieben, aber menschliche Übergriffe mit dieser Technik zu vermeiden, ist ein Stück Demokratieerhaltung, das wir selbst dann begrüßen würden, wenn bereits implementierte KI-Anwendungen wieder eingeschränkt würden, zum Beispiel ChatGPT.
Dass die KI irgendwann mal eine neue intelligente Spezies etabliert und den Menschen verdrängt, gehört bei dem heutigen Stand der KI definitiv in den Bereich der Science-Fiction-Filme. (Quelle ARD wie oben)
Würde eine gute KI einen so krassen Logikfehler begehen, wie er in diesem Satz zum Ausdruck kommt oder darüber den Kopf schütteln, dass „irgendwann mal“ etwas nicht stattfinden soll, was auf dem heutigen Stand der Technik noch nicht möglich ist? Wir sind sehr gespannt, wie es weitergehen wird, aber vermutlich wir nicht jedes Jahr ein solcher Schub zu erwarten sein, wie er gerade mit ChatGPT oder den verbesserten Bildgeneratoren, allen voran wohl Midjourney, unter großer Anteilnahme der Öffentlichkeit stattgefunden hat. Vor allem B2B-Anwendungen werden eher im Stillen für die nächsten Fortschritte sorgen, solange es sich nicht um das autonome Fahren handelt, das ja auch immer sehr öffentlichkeitswirksam diskutiert wird.
Wir müssen keine Angst haben, aber wir müssen diese Technologie wohl überlegt mit der entsprechenden Vorsicht einsetzen. Wir sollten uns immer fragen: Ist der Einsatz der Technologie an der einen oder anderen Stelle etwas, was uns Menschen wirklich etwas bringt oder ist es eher etwas, was uns womöglich in Gefahr bringt? (Quelle ARD wie vor)
Hoffen wir das Beste. Bei bisherigen Technologien sind das Notwendige und Sinnvolle und Bullshit und unerwünschte Nebeneffekte meist gleichermaßen, wenn auch nicht zeitgleich ausgeliefert worden.
Lassen wir doch zum Abschluss die KI zu Wort kommen:
Die KI-Regulierungsverordnung der EU ist ein Vorschlag für einen ersten Rechtsrahmen für künstliche Intelligenz (KI), der im April 2021 vorgelegt wurde1. Das Ziel ist es, bessere Bedingungen für die Entwicklung und Nutzung dieser innovativen Technologie zu schaffen2. Der Vorschlag sieht eine Klassifizierung von KI-Systemen in vier Risikoklassen vor3. Die Verordnung soll auch die Schaffung eines europäischen KI-Boards vorsehen, das die Umsetzung der Verordnung überwacht2.
2: Europarl.europa.eu 1: Bundestag.de 3: Wdr.de
The EU’s AI Act regulates AI applications into certain risk classes that determine the extent of legal requirements. For instance, facial recognition in public spaces is prohibited. The Digital Association Bitkom welcomes the law in principle, but it is necessary to avoid overregulation in the trilogue. The term “high-risk application” should not be too broadly defined. “It is important to regulate only those applications that can actually pose massive dangers and risks in practical application,” said Achim Berg, head of the association12
The AI Act is a response to people’s concerns about AI. It classifies AI applications into four risk categories that are suitable for filling out and can hopefully take into account the development of AI since the start of discussions on the regulatory law two years ago1
1. europarl.europa.eu2. consilium.europa.eu3. europarl.europa.eu
The “AI Act” of the EU classifies AI applications into four risk categories. The extent of legal requirements is based on the risk classes. The four risk categories are as follows: (1) Unacceptable risk, (2) High risk, (3) Limited risk, and (4) Minimal risk1.
1. mhc.ie2. digital-strategy.ec.europa.eu3. kslaw.com4. europarl.europa.eu5. futurium.ec.europa.eu6. fticonsulting.com
Soweit alles klar? Dann bitte die Reise in die Wunderwelt der KI verantwortungsbewusst fortsetzen, so, wie wir das beispielsweise tun.
TH
Kurz vor einem Feiertag wollen wir uns wieder ein wenig mit der Künstlichen Intelligenz (KI), auf Englisch AI (Artificial Intelligence) befassen. Das ist sehr sinnvoll und hintersinnig, den wo könnte die KI künftig den größten Einfluss nehmen? Statista hat dazu eine Grafik erstellt, die wir, versehen mit einem Kommentar von uns, weitergeben möchten.
Infografik: Die größten Befürchtungen in Bezug auf KI | Statista

Diese Statista-Grafik wurde unter einer Lizenz Creative Commons — Namensnennung – Keine Bearbeitungen 4.0 International — CC BY-ND 4.0 erstellt und wir geben sie unter gleichen Bedingungen wieder. Folgend der Statista-Begleittext dazu, dann weiter mit unserem Kommentar.
29 Prozent der Deutschen sind der Meinung, dass Künstliche Intelligenz die Demokratie durch Verbreitung von fake news und Verzerrung von Fakten gefährden könnte. Das geht aus einer Umfrage von Statista und YouGov hervor. Wie unsere Grafik zeigt, haben die Befragten zusätzlich vor allem Sorgen hinsichtlich ihres Arbeitsplatzes und ihrer persönlichen Daten.
Die Angst vor dem Verlust ihrer Arbeitsstelle treibt 28 Prozent der Umfrageteilnehmer:innen um, während sich 14 Prozent über ihre Privatsphäre und Datenschutz Gedanken machen. Die eine oder andere Sorge scheint derweil bei nahezu allen Teilnehmer:innen an der Umfrage akut zu sein. Lediglich sieben Prozent gaben an, keine persönlichen Bedenken hinsichtlich einer Zukunft mit KI zu haben.
Obwohl KI schon in vielerlei Bereichen, vom Gesundheitswesen über die Industrierobotik bis hin zu Sprachassistent:innen wie Alexa und Siri, Anwendung findet, erreichte die öffentliche Beschäftigung mit dem Thema seit der Veröffentlichung des Chatbots ChatGPT eine neue Qualität. So sollen in Zukunft auch Angebote von Amazon, Google und Microsoft mit entsprechender Funktionalität ausgestattet werden.
Datenschützer:innen kritisieren die unklare Lage hinsichtlich der Verwendung persönlicher Daten beim Training der zugrundeliegenden sogenannten large language models. Besonders in der Kreativwirtschaft sorgt die Verwendung urheberrechtlich geschützten Materials für Unmut, was auf lange Sicht zu rechtlichen Konsequenzen für die Software-Betreiber:innen führen könnte.
Wenn wir die in der Grafik angegebenen Prozentzahlen zusammenrechnen, kommen wir nicht auf 100 Prozent. Hatten die restlichen Umfrageteilnehmer:innen keine Meinung? Es hat sicher mit unserer persönlichen Medienrezeption zu tun: vor Fake News durch KI haben wir nicht mehr Sorge als durch Fake News, die von Menschen erstellt werden. Im Moment können Menschen das wohl noch besser, im Netz lügen, aber, selbst wenn das nicht mehr der Fall ist: Es gibt Prüfmechanismen für solche Nachrichten und manchmal reicht ein Gegencheck oder, sich etwas Gedanken über die Plausibilität zu machen. Freilich könnte es gerade eine Spezialität der KI werden, nicht so dummdreist zu lügen, wie viele Menschen das in den sozialen Medien tun, sondern so subtil, dass es wirklich schwierig wird, echte von falschen News zu trennen. Wir sind trotzdem in der Hinsicht guten Mutes.
Das bezieht sich wiederum nur auf unsere persönliche Rezeption von Nachrichten. Wie andere mit KI-generierten Fake News umgehen, ist eine andere Sache, und da geht es doch wieder um die Demokratie, die Schaden nehmen könnte. Das tut sie ja auch durch die unzähligen Verunsicherungen, die durch von Menschen generierte Falschnachrichten viral gehen.
Was das Thema 2 angeht, die Arbeitsplätze, hatten wir schon in einem anderen Artikel zur Bremenwahl angemerkt, dass wir uns Gedanken darüber machen müssen, wo die Einnahmen für den Staat herkommen sollen, wenn tatsächlich in größerer Zahl Arbeitsplätze verlorengehen, ohne dass sie, wie bei den bisherigen Automatisierungsrunden, einigermaßen ersetzt werden können. Im Handel, im Verkehr, aber auch bei mittleren und sogar gehobenen Dienstleistungen könnte es durchaus zum Arbeitsplatzabbau kommen, der nicht durch etwas anderes aufzufangen ist. Daher ist eine Besteuerung des Einsatzes von KI und von Maschinen zwingend, wenn die Zahl der Arbeitsstunden sinkt. Vor allem aber, falls es neue Arbeitsplätze gibt, werden diese weniger Wertschöpfung generieren als bisherige. Das liegt in der Natur der Sache und war schon bei der bisherigen Deindustrialisierung so. Die übrigens nicht gerade erst beginnt, weil die Bundesregierung sich nach Kräften bemüht, sie zu fördern, sondern einen epischen Prozess darstellt. In den 1970ern war der Anteil der Industrie am BIP doppelt so hoch wie jetzt (40-50 Prozent, jetzt 20-23 Prozent) und es gab, vorsichtig ausgedrückt, viel weniger Bullshit-Jobs in allen möglichen Branchen und Gehaltsklassen. Dass sich davon immer weitere kreieren lassen, ohne dass die große Sinnkrise ausbricht, wagen wir zu bezweifeln. Schon jetzt empfindet ein Drittel der Arbeitnehmer:innen das, was sie tun, als eher mehr denn weniger nutzlos.
In vielen Bereichen, in denen gerade das Mantra vom Fachkräftemangel gesungen wird, wird die KI erhebliche Veränderungen mit sich bringen. Weniger bei Handwerksaufgaben, die vor Ort ausgeführt werden müssen, als zum Beispiel durch automatisiertes Fahren. Nicht von heute auf morgen, aber die Experimente laufen ja schon.
Die Privatsphäre betreffend und die Verwendung von Inhalten – uns ist gerade gestern ein Ding passiert, das es eigentlich nicht geben dürfte. Wir haben mit einem Bildgenerator ein paar Tests gemacht und wollten eine Person auf „dem“ Sofa abgebildet haben. Der Generator hat was gemacht? Exakt unser Sofa im Wohnzimmer angezeigt. Auch der Wandhintergrund war bei einigen Generationen deutlich sichtbar identisch. Sogar das Bild, das über dem Sofa hängt … zum Glück sah dieses wenigstens anders aus, die Position stimmte aber einigermaßen. Das war u. E. kein Zufall, denn es hat sich über weitere Generierungen hinweg erhalten, auch nach „Neu-Aufsetzung“, also Löschung der bisherigen Eingaben und des Bestandes an Kreationen. Wir rätseln gerade darüber, ob wir irgendwo im Netz auf dem Sofa zu sehen sind und die KI sich das Bild abgefischt hat. Eindeutig gibt es Bilder davon in unserem Offline-Dateienbestand.
Und auf den hat Microsoft ja auch Zugriff, weil es den gesamten Computer qua Betriebssystem und Microsoft-Konto, ohne das es heute nicht mehr geht, wenn man die MS-Lösungen verwendet, checken kann, an dem wir diesen Artikel schreiben. Wir hätten gute Lust, ChatGPT zu diesem Vorgang ein wenig zu interviewen, aber wir sind nicht besonders guter Dinge, ein vernünftiges Ergebnis dieser Befragung betreffend. Wir haben gerade mal die Probe aufs Exempel gemacht und die KI gebeten, unser Fahrrad zu zeigen. Das Ergebnis stellen wir hier nicht vor, obwohl es uns zur Ehre gereichen würde, inklusive dem kernigen Bike und dem Outfit dazu. Die KI merkt also auch schon, wo man sie ausgucken will. Ganz sicher wird es im Wege des Schutzes der Privatsphäre und der Kreativen noch zu Ärger mit der KI kommen. Hoffentlich wird das Ergebnis der Regulierung nicht so indäquat ausfallen wie die deutsche Handhabung der DSGVO, gegen die erstaunlich wenige Menschen protestiert haben, obwohl sie den Spielraum für Berichterstatter wie uns, vor allem im Bildbereich, erheblich eingeschränkt hat.
TH
TH
Kurz vor einem Feiertag wollen wir uns wieder ein wenig mit der Künstlichen Intelligenz (KI), auf Englisch AI (Artificial Intelligence) befassen. Das ist sehr sinnvoll und hintersinnig, den wo könnte die KI künftig den größten Einfluss nehmen? Statista hat dazu eine Grafik erstellt, die wir, versehen mit einem Kommentar von uns, weitergeben möchten.
Infografik: Die größten Befürchtungen in Bezug auf KI | Statista

Diese Statista-Grafik wurde unter einer Lizenz Creative Commons — Namensnennung – Keine Bearbeitungen 4.0 International — CC BY-ND 4.0 erstellt und wir geben sie unter gleichen Bedingungen wieder. Folgend der Statista-Begleittext dazu, dann weiter mit unserem Kommentar.
29 Prozent der Deutschen sind der Meinung, dass Künstliche Intelligenz die Demokratie durch Verbreitung von fake news und Verzerrung von Fakten gefährden könnte. Das geht aus einer Umfrage von Statista und YouGov hervor. Wie unsere Grafik zeigt, haben die Befragten zusätzlich vor allem Sorgen hinsichtlich ihres Arbeitsplatzes und ihrer persönlichen Daten.
Die Angst vor dem Verlust ihrer Arbeitsstelle treibt 28 Prozent der Umfrageteilnehmer:innen um, während sich 14 Prozent über ihre Privatsphäre und Datenschutz Gedanken machen. Die eine oder andere Sorge scheint derweil bei nahezu allen Teilnehmer:innen an der Umfrage akut zu sein. Lediglich sieben Prozent gaben an, keine persönlichen Bedenken hinsichtlich einer Zukunft mit KI zu haben.
Obwohl KI schon in vielerlei Bereichen, vom Gesundheitswesen über die Industrierobotik bis hin zu Sprachassistent:innen wie Alexa und Siri, Anwendung findet, erreichte die öffentliche Beschäftigung mit dem Thema seit der Veröffentlichung des Chatbots ChatGPT eine neue Qualität. So sollen in Zukunft auch Angebote von Amazon, Google und Microsoft mit entsprechender Funktionalität ausgestattet werden.
Datenschützer:innen kritisieren die unklare Lage hinsichtlich der Verwendung persönlicher Daten beim Training der zugrundeliegenden sogenannten large language models. Besonders in der Kreativwirtschaft sorgt die Verwendung urheberrechtlich geschützten Materials für Unmut, was auf lange Sicht zu rechtlichen Konsequenzen für die Software-Betreiber:innen führen könnte.
Wenn wir die in der Grafik angegebenen Prozentzahlen zusammenrechnen, kommen wir nicht auf 100 Prozent. Hatten die restlichen Umfrageteilnehmer:innen keine Meinung? Es hat sicher mit unserer persönlichen Medienrezeption zu tun: vor Fake News durch KI haben wir nicht mehr Sorge als durch Fake News, die von Menschen erstellt werden. Im Moment können Menschen das wohl noch besser, im Netz lügen, aber, selbst wenn das nicht mehr der Fall ist: Es gibt Prüfmechanismen für solche Nachrichten und manchmal reicht ein Gegencheck oder, sich etwas Gedanken über die Plausibilität zu machen. Freilich könnte es gerade eine Spezialität der KI werden, nicht so dummdreist zu lügen, wie viele Menschen das in den sozialen Medien tun, sondern so subtil, dass es wirklich schwierig wird, echte von falschen News zu trennen. Wir sind trotzdem in der Hinsicht guten Mutes.
Das bezieht sich wiederum nur auf unsere persönliche Rezeption von Nachrichten. Wie andere mit KI-generierten Fake News umgehen, ist eine andere Sache, und da geht es doch wieder um die Demokratie, die Schaden nehmen könnte. Das tut sie ja auch durch die unzähligen Verunsicherungen, die durch von Menschen generierte Falschnachrichten viral gehen.
Was das Thema 2 angeht, die Arbeitsplätze, hatten wir schon in einem anderen Artikel zur Bremenwahl angemerkt, dass wir uns Gedanken darüber machen müssen, wo die Einnahmen für den Staat herkommen sollen, wenn tatsächlich in größerer Zahl Arbeitsplätze verlorengehen, ohne dass sie, wie bei den bisherigen Automatisierungsrunden, einigermaßen ersetzt werden können. Im Handel, im Verkehr, aber auch bei mittleren und sogar gehobenen Dienstleistungen könnte es durchaus zum Arbeitsplatzabbau kommen, der nicht durch etwas anderes aufzufangen ist. Daher ist eine Besteuerung des Einsatzes von KI und von Maschinen zwingend, wenn die Zahl der Arbeitsstunden sinkt. Vor allem aber, falls es neue Arbeitsplätze gibt, werden diese weniger Wertschöpfung generieren als bisherige. Das liegt in der Natur der Sache und war schon bei der bisherigen Deindustrialisierung so. Die übrigens nicht gerade erst beginnt, weil die Bundesregierung sich nach Kräften bemüht, sie zu fördern, sondern einen epischen Prozess darstellt. In den 1970ern war der Anteil der Industrie am BIP doppelt so hoch wie jetzt (40-50 Prozent, jetzt 20-23 Prozent) und es gab, vorsichtig ausgedrückt, viel weniger Bullshit-Jobs in allen möglichen Branchen und Gehaltsklassen. Dass sich davon immer weitere kreieren lassen, ohne dass die große Sinnkrise ausbricht, wagen wir zu bezweifeln. Schon jetzt empfindet ein Drittel der Arbeitnehmer:innen das, was sie tun, als eher mehr denn weniger nutzlos.
In vielen Bereichen, in denen gerade das Mantra vom Fachkräftemangel gesungen wird, wird die KI erhebliche Veränderungen mit sich bringen. Weniger bei Handwerksaufgaben, die vor Ort ausgeführt werden müssen, als zum Beispiel durch automatisiertes Fahren. Nicht von heute auf morgen, aber die Experimente laufen ja schon.
Die Privatsphäre betreffend und die Verwendung von Inhalten – uns ist gerade gestern ein Ding passiert, das es eigentlich nicht geben dürfte. Wir haben mit einem Bildgenerator ein paar Tests gemacht und wollten eine Person auf „dem“ Sofa abgebildet haben. Der Generator hat was gemacht? Exakt unser Sofa im Wohnzimmer angezeigt. Auch der Wandhintergrund war bei einigen Generationen deutlich sichtbar identisch. Sogar das Bild, das über dem Sofa hängt … zum Glück sah dieses wenigstens anders aus, die Position stimmte aber einigermaßen. Das war u. E. kein Zufall, denn es hat sich über weitere Generierungen hinweg erhalten, auch nach „Neu-Aufsetzung“, also Löschung der bisherigen Eingaben und des Bestandes an Kreationen. Wir rätseln gerade darüber, ob wir irgendwo im Netz auf dem Sofa zu sehen sind und die KI sich das Bild abgefischt hat. Eindeutig gibt es Bilder davon in unserem Offline-Dateienbestand.
Und auf den hat Microsoft ja auch Zugriff, weil es den gesamten Computer qua Betriebssystem und Microsoft-Konto, ohne das es heute nicht mehr geht, wenn man die MS-Lösungen verwendet, checken kann, an dem wir diesen Artikel schreiben. Wir hätten gute Lust, ChatGPT zu diesem Vorgang ein wenig zu interviewen, aber wir sind nicht besonders guter Dinge, ein vernünftiges Ergebnis dieser Befragung betreffend. Wir haben gerade mal die Probe aufs Exempel gemacht und die KI gebeten, unser Fahrrad zu zeigen. Das Ergebnis stellen wir hier nicht vor, obwohl es uns zur Ehre gereichen würde, inklusive dem kernigen Bike und dem Outfit dazu. Die KI merkt also auch schon, wo man sie ausgucken will. Ganz sicher wird es im Wege des Schutzes der Privatsphäre und der Kreativen noch zu Ärger mit der KI kommen. Hoffentlich wird das Ergebnis der Regulierung nicht so indäquat ausfallen wie die deutsche Handhabung der DSGVO, gegen die erstaunlich wenige Menschen protestiert haben, obwohl sie den Spielraum für Berichterstatter wie uns, vor allem im Bildbereich, erheblich eingeschränkt hat.
TH
Entdecke mehr von DER WAHLBERLINER
Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.

