Jump to content
Künstliche Intelligenz, Demokratie und Privatheit / Clearview AI und die DSGVO
Künstliche Intelligenz, Demokratie und Privatheit / Clearview AI und die DSGVO
Contents
Chapter
Expand
|
Collapse
Authors
Page
1–16
Titelei/Inhaltsverzeichnis
1–16
Details
17–28
Einleitung: Künstliche Intelligenz, Demokratie und Privatheit
17–28
17–20
Zum Thema dieses Bandes
17–20
Details
21–28
Die Beiträge
21–28
Details
Künstliche Intelligenz und Selbstbestimmung
Künstliche Intelligenz, Profiling und Überwachung
Künstliche Intelligenz und Nutzendenverhalten
Künstliche Intelligenz, Desinformation und Deepfakes
Einsatz von KI in Gesundheit und Pflege
31–100
Teil I Künstliche Intelligenz und Selbstbestimmung
31–100
31–58
Prädiktive Privatheit: Kollektiver Datenschutz im Kontext von Big Data und KI
Rainer Mühlhoff
Rainer Mühlhoff
31–58
Details
1. Einleitung
2. Prädiktive Analytik
3. Prädiktive Privatheit
4. Ein neues Datenschutzproblem: Drei Angriffstypen
Typ 1: Intrusion
Typ 2: Re-Identifikation
Typ 3: Prädiktion
5. Prädiktive Privatheit als neues Schutzgut
6. Regulierungsvorschläge
6.1 Aktuell fehlende Regulierung
6.1.1 Herstellung prädiktiver Modelle
6.1.2 Verwendung prädiktiver Modelle
6.2 Die DSGVO fit machen für KI & Big Data
6.2.1 Abgeleitete Informationen
6.2.2 Anonymisierte Daten
6.2.3 Einwilligung beschränken
6.2.4 Kollektive Schutzrechte
6.3 Antidiskriminierung
Acknowledgements
Literatur
59–76
Nothing personal? Der Personenbezug von Daten in der DSGVO im Licht von künstlicher Intelligenz und Big Data
Rita Jordan
Rita Jordan
59–76
Details
1. Einleitung
2. Personenbezogene Daten im Sinne der DSGVO
3. Kritik der individualistischen Ausrichtung des Datenrechts
3.1 Herausforderungen von KI und Big Data
3.2. Auslegungs- und Übersetzungsprobleme
3.3 Ausweitung der Bezugsgruppe (Group Privacy)
3.4 Ausweitung des Zeithorizonts
3.5 Zwischenfazit
4. Anwendungsbeispiel: Partizipative Technologieentwicklung in ‚Smart Cities 3.0‘
4.1 Szenario: Entscheidungsprobleme und Risiken intelligenter Infrastrukturen
4.2 Demokratische Technologieentwicklung für intelligente Städte
5. Fazit und Ausblick
Literatur
77–100
Künstliche Intelligenz als hybride Lebensform. Zur Kritik der kybernetischen Expansion
Jörn Lamla
Jörn Lamla
77–100
Details
1. Jenseits von starker und schwacher KI
2. Der digitale Analogismus der kybernetischen Kosmologie
3. Heterogene Existenz und KI in den hybriden Lebensformen der Demokratie und Privatheit
Literatur
103–208
Teil II Künstliche Intelligenz, Profiling und Überwachung
103–208
103–130
Der KI-Verordnungsentwurf und biometrische Erkennung: Ein großer Wurf oder kompetenzwidrige Symbolpolitik?
Stephan Schindler, Sabrina Schomberg
Stephan Schindler, Sabrina Schomberg
103–130
Details
1 Künstliche Intelligenz
1.1 Begriff, Chancen und Risiken
1.2 Regulierungspflicht des Gesetzgebers
2 Der KI-Verordnungsentwurf der Kommission
2.1 KI-Systeme, Adressaten und Anwendungsbereich
2.2 Risikobasierter und produktsicherheitsrechtlicher Ansatz
2.2.1 Verbotene Praktiken im Bereich der KI
2.2.2 Hochrisiko-KI-Systeme
2.2.3 Transparenzpflichten
2.2.4 Sonstige KI-Systeme
2.3 Innovationsförderung, Aufsicht, Sanktionen
3 Biometrische Erkennung im KI-Verordnungsentwurf
3.1 Biometrische Erkennung und biometrische Daten
3.2 Biometrische Erkennung als verbotene Praktik
3.3 Biometrische Erkennung als Hochrisiko-KI
3.4 Emotionserkennung und biometrische Kategorisierung
4 Unzureichende Regelungskompetenz der Union
5 Fazit
Literatur
131–152
Digitale Subjekte in der Plattformökonomie: Datenschutz als zentrale Machtfrage
Jasmin Schreyer
Jasmin Schreyer
131–152
Details
1. Überwachungskapitalismus, Datafizierung und Algorithmen
2. Digitale Subjekte, Privatsphäre und Datenschutz
3. Plattformbasierte Arbeitskoordination im Fahrradkurierwesen
4. Abschließende Betrachtung
Literatur
153–176
Clearview AI und die DSGVO
Matthias Marx, Alan Dahi
Matthias Marx, Alan Dahi
153–176
Details
1. Einleitung
2. Was ist Clearview AI?
3. Chronologischer Ablauf
3.1 Das Auskunftsersuchen
3.2 Die Beschwerde
3.3 Unterstützung durch noyb
3.4 Neues Auskunftsverlangen
3.5 Europäische Kunden
4. Rechtliche Einordnung
4.1 (Räumliche) Anwendbarkeit der DSGVO
4.2 Fehlende Rechtsgrundlage
4.3 Weitere Aspekte
4.5 Situation in anderen EU-Mitgliedstaaten und dem Vereinigten Königreich
5. Fazit
Literatur
177–208
Sozialkreditdossiers in der Tradition staatlicher Personenakten in China: zunehmende Transparenz durch rechtliche Einbettung?
Marianne von Blomberg, Hannah Klöber
Marianne von Blomberg, Hannah Klöber
177–208
Details
1. Einleitung
2. Dossiers in China von Kaiserzeit bis Kommunismus
3. Das SKS und seine Dossiers
3.1. Entwicklung eines Kreditsystems mit Besonderheiten
3.2. Inhalt der Sozialkreditdossiers
4. Datenschutz im SKS: Rechtsrahmen für Transparenz und Korrektur von Sozialkreditinformationen
4.1. Datenschutz im öffentlichen Recht der Volksrepublik China
4.2. Pflichten für Datenverarbeiter
4.3. Rechte der betroffenen Personen
4.4. Durchsetzungsmöglichkeiten
5. Das SKS im Vergleich mit traditionellen Dossiers – Kontinuität oder Bruch?
6. Ausblick
Literatur
211–262
Teil III Künstliche Intelligenz und Nutzendenverhalten
211–262
211–238
Privacy als Paradox? Rechtliche Implikationen verhaltenspsychologischer Erkenntnisse
Hannah Ruschemeier
Hannah Ruschemeier
211–238
Details
1. Problemaufriss
2. Grundlagen des Privacy Paradoxes
2.1 Konzeption von Privatheit und Datenschutz im Kontext des Privacy Paradoxes
2.2 Empirische Grundlagen: Privacy Calculus oder Privacy Paradox?
2.2.1 Ausfluss rationaler Entscheidung
2.2.2 Verzerrte Risikoabwägung
2.2.3 Resignation und gewolltes Unwissen
2.2.4 Beeinflussung und Manipulation
2.2.5 Informationelle Asymmetrie und Kontextabhängigkeit
3. Rechtliche Implikationen des Privacy Paradox
3.1 Datenschutzrecht: Einwilligung als untaugliches rechtliches Instrument im digitalen Raum
3.2 Wettbewerb und Verbraucherschutz
3.3 Argument gegen Regulierung?
3.4. Privacy Paradox als Mythos?
4. Reaktionen des Rechts: Privacy kein Paradox
5. Conclusio
Literatur
239–262
Welche Rolle spielen Privacy und Security bei der Messenger-Nutzung und -Wechsel arabischsprachiger Nutzer:innen
Fischer, Buckmann, Herbert, Degeling, Al Kalla
Fischer, Buckmann, Herbert, Degeling, Al Kalla
239–262
Details
1. Einleitung
2. Stand der Forschung
3. Studiendesign
3.1 Smartphone- und Messengernutzung
3.2 Untersuchung zum Wechsel des Messengers
3.3 Pretest
3.4 Ethik
4. Ergebnisse
4.1 Datenaufbereitung
4.2 Demografische Daten
4.3 Smartphone- und Messengernutzung
4.4 Untersuchung zum Wechsel von WhatsApp zu anderen Messengern
4.5 WhatsApp-Alternative
4.6 Verhalten vor dem Wechsel weg von WhatApp
4.7 Weitere Gründe für die Installation eines neuen Messengers
4.8 Überzeugung von Freunden:innen und Bekannten zum Wechsel
4.9 Teilnehmer:innen, die WhatsApp gelöscht haben
4.10 Maßnahmen, um den neuen Messenger mehr zu nutzen
5. Diskussion
Literatur
265–350
Teil IV Künstliche Intelligenz, Desinformation und Deepfakes
265–350
265–288
Das Phänomen Deepfakes. Künstliche Intelligenz als Element politischer Einflussnahme und Perspektive einer Echtheitsprüfung
Louban, Tahraoui, Aden, Fährmann, Krätzer, Dittmann
Louban, Tahraoui, Aden, Fährmann, Krätzer, Dittmann
265–288
Details
1. Einleitung
2. Deepfakes – ein KI-Phänomen mit vielfältigen Einsatzmöglichkeiten
3. Deepfakes in politischen Kontexten
3.1 Einflussnahme auf politische Diskurse durch Deepfakes
3.2 Deepfakes als Form politischer Desinformation
3.3 Die Rolle der Internetnutzer:innen im Kontext desinformierender Deepfakes
4. Strafbarkeit der Nutzung von Deepfakes im politischen Kontext und Ansätze von Transparenz
5. Projekt FAKE-ID: Interdisziplinäre Erforschung einer Deepfake-Detektion
5.1 Technische und juristische Herausforderungen KI-basierter Deepfake-Detektion
5.2 Emanzipatorisches Potential der Deepfake-Detektion für Privatpersonen
6. Fazit
Literatur
289–316
KI-Lösungen gegen digitale Desinformation: Rechtspflichten und -befugnisse der Anbieter von Social Networks
Lena Isabell Löber
Lena Isabell Löber
289–316
Details
1 KI-Lösungen als unverzichtbare Instrumente zur Eindämmung von Desinformation
2 Technikimmanente Erkenntnisgrenzen und Risiken der KI-Systeme
2.1 Problematik der Fehltreffer
2.2 Technisch-organisatorische Gestaltungs- und Entscheidungsmacht
3 KI-Einsatz in der Internet(selbst)regulierung als Balanceakt
3.1 Verpflichtender Einsatz bei duplizierten und sinngleichen Inhalten
3.2 Reichweite der Befugnisse bei privatautonomen Maßnahmen
3.3 Technische und rechtliche Mechanismen zum Schutz der Kommunikationsgrundrechte
4 Transparenzvorgaben gegen weitreichende Wissensasymmetrien
4.1 Netzwerkdurchsetzungsgesetz: Informationen zu eingesetzten Verfahren zur automatisierten Erkennung von Inhalten
4.2 Medienstaatsvertrag: grobe Einblicke in Sortier-, Priorisierungs- und Selektierungsmethoden und Diskriminierungsverbot für journalistisch-redaktionell gestaltete Inhalte
4.3 Kennzeichnungspflichten von Social Bots und Deepfakes
5 Erhöhte externe Kontrolle durch den Digital Services Act?
5.1 Desinformation als systemisches Risiko
5.2 Einschränkung und Offenlegung von Automatisierung
6 Fazit und Ausblick
Literatur
317–350
Desinformationen und Messengerdienste: Herausforderung und Lösungsansätze
Krämer, Hornung, Jansen, Kluck, Rinsdorf, Setz, Steinebach, Vogel, Yannikos
Krämer, Hornung, Jansen, Kluck, Rinsdorf, Setz, Steinebach, Vogel, Yannikos
317–350
Details
1. Einleitung
2. Informatik
2.1 Stand der Forschung
2.2 Eigene Beiträge
2.3 Forschungsfragen
3. Journalistik
3.1 Stand der Forschung
3.2 Eigene Beiträge
3.3 Forschungsfragen
4. Medienpsychologie
4.1 Stand der Forschung
4.2 Eigene Beiträge
4.3 Forschungsfragen
5. Rechtswissenschaften
5.1 Stand der Forschung inkl. eigener Beiträge
5.2 Forschungsfragen
5.3 Datenschutzrecht: Anonymisierung und Informationsverlust
6. Ausblick
Literatur
353–402
Teil V Künstliche Intelligenz im Gesundheits- und Pflegewesen
353–402
353–376
KI-Systeme in Pflegeeinrichtungen – Erwartungen, Altersbilder und Überwachung
Roger von Laufenberg
Roger von Laufenberg
353–376
Details
1. Einleitung: Technologieentwicklung und Pflege – hohe Erwartungen, hohe Risiken
2. KI in der Pflege – das Sturzerkennungs- und Präventionssystems
3. Die Entwicklung von KI-Systemen in der Pflege – Altersbilder im Entstehen
4. Die Entwicklung von KI-Systemen in der Pflege – Technische Funktionalität vs. ethische Überlegungen
5. Die Lerndaten der KI – Erlernen spezifischer Altersbilder
6. Die Lerndaten der KI – Bias im System
7. Die Kunst der Datensynthetisierung
8. KI im Einsatz – Auswirkungen auf Nutzer*innen und Betroffene
8.1. Überwachte Pflegearbeit
8.2. Überwachte Bewohner:innen
9. Big Mother is caring for you
Literatur
377–402
The impact of smart wearables on the decisional autonomy of vulnerable persons
Niël H. Conradie, Sabine Theis, Jutta Croll, Clemens Gruber, Saskia K. Nagel
Niël H. Conradie, Sabine Theis, Jutta Croll, Clemens Gruber, Saskia K. Nagel
377–402
Details
1. Introduction
2. Decision-making and decisional autonomy
3. Qualities and capacity of smart wearables relevant to decisional autonomy
4. The opportunities and perils for decisional autonomy
5. Vulnerable persons and the differentiated impact of smart wearables
6. Concluding Remarks
References
403–409
Autorinnen und Autoren
403–409
Details
Durchsuchen Sie das Werk
Geben Sie ein Keyword in die Suchleiste ein
CC-BY
Access
Künstliche Intelligenz, Demokratie und Privatheit , page 153 - 176
Clearview AI und die DSGVO
Autoren
Matthias Marx
Alan Dahi
DOI
doi.org/10.5771/9783748913344-153
ISBN print: 978-3-8487-7327-5
ISBN online: 978-3-7489-1334-4
Chapter Preview
Share
Download PDF
Download citation
RIS
BibTeX
Copy DOI link
doi.org/10.5771/9783748913344-153
Share by email
Video schließen
Share by email Nomos eLibrary
Recipient*
Sender*
Message*
Your name
Send message
This site is protected by reCAPTCHA and the Google
Privacy Policy
and
Terms of Service
apply.