12 December 2024
EU’s AI Act and Migration Control. Shortcomings in Safeguarding Fundamental Rights
In the European Union, AI and non-AI technologies are increasingly being used for border and migration control. In this blog, Brouwer argues that the new AI Act, while adding safeguards, falls short of sufficiently protecting fundamental rights. This is due to its blanket exceptions and broad discretion for national and EU agencies to experiment with AI tools when making decisions about migrants, including asylum seekers and refugees. It is therefore important that the general legal framework on fundamental rights continues to be observed. Continue reading >>
0
12 December 2024
Autos als Belastungszeugen – hilft die KI-VO?
Moderne Autos, Fitnessarmbänder oder Herzschrittmacher beobachten ihre Nutzer ständig und werden dadurch zu potenziellen Beweismitteln. Können ihre Beobachtungen Teil der strafprozessualen Beweisführung werden? Sollten sie in Augenschein genommen oder doch eher wie Belastungszeugen konfrontiert werden? Hilft die KI-VO, wenn die Strafverteidigung die Vertrauenswürdigkeit einer Beobachtung testen will? Die der KI-VO eigene Mischung aus Produktesicherheit und Grundrechtsschutz birgt nicht nur ein generelles Potenzial für mehr Vertrauenswürdigkeit, sie könnte auch helfen genuin strafprozessuale Anliegen in das digitale Zeitalter zu überführen. Dieses Versprechen wird aber nur eingelöst, wenn Rechtswissenschaft und Rechtspraxis die europäischen Vorgaben in den Strafverfahrensalltag übersetzen. Continue reading >>
0
11 December 2024
Big Brother Is Analyzing You
Angesichts der Möglichkeiten automatisierter Datenanalyse wachsen bei den Sicherheitsbehörden die Begehrlichkeiten. Mit der im August 2024 in Kraft getretenen KI-Verordnung existiert eine Regelung, die die Gestaltung und Nutzung von Hochrisiko-KI-Systemen reguliert und dadurch die verfassungsrechtlichen sowie datenschutzrechtlichen Anforderungen an die polizeiliche Datenanalyse schärft. Für die gesetzlichen Vorgaben von Analysebefugnissen und deren Anwendung ist es entscheidend, klare Leitlinien für einen verantwortungsvollen und grundrechtsschonenden Einsatz von KI in Gefahrenabwehr und Strafverfolgung zu etablieren. Continue reading >>
0
11 December 2024
Ein Anfang, mehr nicht
Kein anderes Thema hat die Gemüter beim Ringen um die KI-Verordnung der EU so sehr erhitzt wie die automatisierte Gesichtserkennung in der Strafverfolgung und ihre Regulierung. Jetzt stehen die Vorschriften für Gesichtserkennung und andere Methoden biometrischer Fernidentifizierung fest – zumindest der aller-äußerste Rahmen, den die KI-Verordnung festlegt. Diese Regelungen sind allerdings nur ein Anfang, mehr nicht. Continue reading >>
0
10 December 2024
AI Act and the Prohibition of Real-Time Biometric Identification
Remote biometric identification (RBI) systems are increasingly becoming part of our daily lives. The most prominent example is the use of facial recognition technologies in public spaces (e.g. CCTV cameras). The AI Act regulates the use of RBI systems distinguishing between real-time and post RBI systems. While one of the main aims of the AIA was to ban real-time RBI systems, the Regulation failed to do so in an effective manner. Instead, it can be argued that the AIA still allows for a broad use of such systems. Continue reading >>
0
10 December 2024
KI im Einsatz für die Sicherheit
Mit der Verabschiedung der KI-Verordnung wurde nicht nur ein Rechtsrahmen für den sicherheitsbehördlichen KI-Einsatz geschaffen, sondern erneut die Diskussion über eine kompetenzwidrige Europäisierung des Sicherheitsrechts aufgeworfen. Neben der Notwendigkeit gemeinsamer datenschutzrechtlicher Mindeststandards im Raum der Freiheit, der Sicherheit und des Rechts sprechen jedoch auch die Einhaltung grundrechtlicher Garantien und die in der KI-Verordnung vorgesehenen Regelungsspielräume der Mitgliedstaaten für die Zulässigkeit einer übergreifenden Regulierung des KI-Einsatzes durch den EU-Gesetzgeber. Continue reading >>
0
09 December 2024
The AI Act National Security Exception
In 2024, the EU legislators adopted a detailed national security exception to the AI Act, contravening prior EU case law. Beyond the possibility of a future ruling that would realign the AI Act’s scope with said case law, the impact of this exception might be limited by other applicable laws and the interpretative and practical difficulty of distinguishing between national and public security. The AI Act’s failure to sufficiently account for these intricacies risks further legal uncertainty within the already complex security landscape. Therefore, this blog post explores the challenges of implementing the exception of national security to the AI Act’s scope of application. Continue reading >>09 December 2024
The EU AI Act’s Impact on Security Law
The process of integrating European security law is imperfect and unfinished – given the constraints posed by the European Treaties, it is likely to remain that way for the foreseeable future. This inevitable imperfection, lamentable as it may be, creates opportunities for legal scholarship. Legal scholars are needed to explore the gaps and cracks in this new security architecture and to ultimately develop proposals for how to fix them. This debate series, being a product of VB Security and Crime, takes the recently adopted AI Act as an opportunity to do just that: It brings together legal scholars, both German and international, in order to explain, analyze and criticize the EU AI Act’s impact on security law from both an EU and German national law perspective. Continue reading >>
0
12 November 2024
Frisch gewagt ist nur halb gewonnen
Kein Erfolg ohne Training und gutes Trainingsmaterial. Was schon seither für Menschen gilt, ist auch für Künstliche Intelligenz („KI“) nicht anders zu beurteilen. Diese benötigt quantitativ und qualitativ hochwertige Datensätze, um menschenähnlich kreativen Output generieren zu können. Teil dieser Datensätze sind urheberrechtlich geschützte Werke (etwa Fotos oder Texte), derer sich Unternehmen auch bedienen, ohne vorher die Einwilligung der Urheber einzuholen. Ein Urteil des LG Hamburg versucht nun dieses Spannungsfeld aufzulösen – dies gelingt allerdings nur teilweise. Continue reading >>
0
03 June 2024
Deepfakes, the Weaponisation of AI Against Women and Possible Solutions
In January 2024, social media platforms were flooded with intimate images of pop icon Taylor Swift, quickly reaching millions of users. However, the abusive content was not real; they were deepfakes – synthetic media generated by artificial intelligence (AI) to depict a person’s likeness. But the threat goes beyond celebrities. Virtually anyone (with women being disproportionately targeted) can be a victim of non-consensual intimate deepfakes (NCID). Albeit most agree that companies must be held accountable for disseminating potentially extremely harmful content like NCIDs, effective legal responsibility mechanisms remain elusive. This article proposes concrete changes to content moderation rules as well as enhanced liability for AI providers that enable such abusive content in the first place. Continue reading >>
0