22 March 2024

Daniela Klette und die Frucht der vergifteten Maschine

Am 26. Februar 2024 hat die Polizei die mutmaßliche Terroristin Daniela Klette festgenommen. Nachdem sie Anfang der 1990er-Jahren an verschiedenen schweren Straftaten beteiligt gewesen sein soll, war es ihr gelungen unterzutauchen und sich dreißig Jahre lang vor der Polizei verborgen zu halten. Möglicherweise ist ihr dann ihre Vorliebe für Capoeira zum Verhängnis geworden. PimEyes, eine KI-basierte, biometrische Gesichtserkennungssoftware, fand Klette im Netz. Schon im Dezember 2023 nutze der Journalist Michael Colborne die Software und identifizierte Klette, seinen eigenen Angaben zufolge, innerhalb von dreißig Minuten. Ob seine Erkenntnis für Klettes Verhaftung ausschlaggebend war, ist momentan nicht klar. Colborne selbst bestreitet, die Polizei informiert zu haben. Unabhängig davon, wie die das Geschehen ablief, zeigt der Fall Klette allerdings das disruptive Potential moderner KI-Instrumente. Wohlinformierter KI-Einsatz kann mitunter in dreißig Minuten schaffen, was herkömmliche Polizeiarbeit in dreißig Jahren nicht zu leisten vermag.

Wie kann das Strafprozessrecht angesichts dieser Entwicklungen tradierte Grundrechtsstandards garantieren? Diesen Beitrag widme ich einem Teilaspekt dieses Problemgefüges: Den Beweisverwertungsverboten und ihren Fernwirkungen. Deutsche Gerichte betonen immer wieder, dass in der Bundesrepublik, anders in den Vereinigten Staaten, nicht die Doktrin der fruit of the poisonous tree herrscht, sodass auch bei einer rechtswidrigen Beweiserhebung ein Beweisverwertungsverbot nur ausnahmsweise greift – und nur im absoluten Ausnahmefall eine Fernwirkung entfaltet. Ich plädiere aus verfassungs- und unionsrechtlicher Perspektive dafür, dass der Einsatz von offensichtlich rechtswidriger Software wie PimEyes eine solche Ausnahme bildet.

Datenschutzrechtswidrige Software im Einsatz

Biometrische KI-Systeme wie PimEyes oder Clearview AI machen sich per Web Scraping zunutze, dass das Alltagsleben eines signifikanten Teils der Menschheit in Abermilliarden, über das Internet allgemein zugänglichen Bildern dokumentiert ist (zur Funktionsweise s. Bovermann/Fink/Mutter). Keine (menschliche) Polizeieinheit dieser Welt könnte dieses Bildermeer vollständig durchleuchten. Biometrische KI-Bilderkennungssoftware ermöglicht es aber sowohl staatlichen Institutionen, als auch Privatpersonen – PimEyes ist, anders als Clearview AI auch für Privatpersonen nutzbar – viele Menschen immer und jederzeit zu identifizieren und über sie Persönlichkeitsprofile herzustellen. Weil eine jederzeitige Identifizierbar- und Analysierbarkeit eines jeden Menschen in eklatantem Widerspruch nicht nur zum Datenschutz-, sondern auch dem deutschen Verfassungsrecht sowie Unionsrecht steht, drängen sich eine Vielzahl an Rechtsfragen auf. Der Einsatz von PimEyes zu Strafverfolgungszwecken ist innerhalb verschiedener Konstellationen denkbar, die unter Umständen jeweils rechtlich unterschiedlich zu bewerten sind.

Im Fall Klette (Konstellation 1) haben Polizeibehörden, soweit aktuell ersichtlich, PimEyes nicht selbst verwendet. Stattdessen erreichten die Polizei wohl Hinweise von Privatpersonen, die die Software vermutlich genutzt und Klette identifiziert hatten.

Denkbar ist aber auch, dass staatliche Institutionen Software wie PimEyes künftig selbst einsetzen. Medienberichten zufolge hat beispielsweise Europol ein Softwarepaket akquiriert, das auch PimEyes enthält. Möglich ist weiterhin, dass einzelne Polizeibeamt*innen die frei zugängliche Software auf eigene Faust verwenden. In diesen Szenarien kann man wiederum zwischen zwei Konstellationen unterscheiden: Angelehnt an den Fall Klette können die Beamt*innen PimEyes nutzen, um Personen zu identifizieren, gegen die schon vorab ein (dringender) Tatverdacht, möglicherweise sogar ein Haftbefehl, bestand (Konstellation 2). Der Softwareeinsatz dient dann lediglich dazu, eine gesuchte Person aufzuspüren und dingfest zu machen.

Ebenso ist aber auch ein explorativer Einsatz der Software möglich. Die Polizei könnte PimEyes verwenden, um Persönlichkeitsprofile über Menschen zu bilden, und Bewegungs- bzw. Beziehungszusammenhänge zu analysieren. In diesen Fällen diente der Softwareeinsatz überhaupt erst dazu, einen vorher nicht bestehenden strafrechtlichen Verdacht bezüglich einer individuellen Person zu begründen oder eine Ermittlungsspur zu konsolidieren (Konstellation 3). Beispielsweise hat die Hamburger Polizei im Zuge des G20-Gipfels im Jahr 2017 die Software Videmo360 eingesetzt, um die Bewegungsmuster von Menschen nachzuvollziehen und so im Zusammenhang mit den Gegenprotesten stehende Straftaten zu verfolgen.

Bei der ersten Konstellation ist zu beachten, dass Vorschriften der JI-Richtlinie und der StPO, die den KI-Einsatz für staatliche Behörden einschränken, Privatpersonen nicht binden. Aus diesem Grund besteht in der Rechtsprechung (siehe beispielsweise hier) weitestgehender Konsens, dass aus einer illegalen (sogar einer strafbaren) Beweisbeschaffung durch Private für die Polizei grundsätzlich kein Beweisverwertungsverbot folgt. In Fällen der ersten Konstellation sind deshalb Beweisverwertungsverbote besonders begründungsbedürftig. Sie kommen in Frage, wenn die verwerteten Bilder die Intimsphäre oder in anderer Weise in die Menschenwürde Betroffener eingreifen, etwa wenn zum Abgleich Bilder aus höchstprivaten Lebenssituationen verwendet werden, die Dritte gegen den Willen der Betroffenen in sozialen Medien hochgeladen haben. Des Weiteren sind privat illegal gesammelte Beweise unverwertbar, wenn dem Staat diese Beweisbeschaffung zurechenbar ist (siehe zu den Ausnahmen etwa BGHSt 42, 139). Hier könnte Potential liegen, die strafprozessuale Dogmatik weiterzuentwickeln: Der technologische Fortschritt hat dazu geführt, dass heute jede*r mit dem Smartphone ein hocheffizientes Ermittlungsinstrument in seiner*ihrer Tasche mitführt. Die hiervon ausgehenden Grundrechtsgefahren sind ungleich größer als sie es zu der Zeit waren, zu der die Rechtsprechung ihre Verwertungsdogmatik zu Tonbändern entwickelt hat. Um zu vermeiden, dass die Polizei die für sie geltenden, grundrechtlichen Standards durch geschicktes Sich-Ahnungslos-Stellen systematisch umgehen kann, könnte man ihr bei der Entgegennahme von Hinweisen aus der Bevölkerung strengere Obliegenheiten aufzuerlegen: So ließe sich ein Beweisverwertungsverbot nicht nur annehmen, wenn die Polizei den Einsatz offensichtlich rechtswidriger Software gezielt veranlasst hat, sondern auch, wenn sich ihr der private Einsatz angesichts des Hinweiskontextes aufdrängen musste und die Polizeibeamt*innen es versäumt haben, nachzufragen wie die Identifikation zustande kam.

Unions- und Verfassungsrecht verbieten polizeilichen PimEyes-Einsatz

In der zweiten und dritten Konstellation stellen sich gravierendere verfassungs- und unionsrechtliche Probleme. Ein polizeilicher Einsatz von PimEyes oder Clearview AI zur Strafverfolgung wäre rechtswidrig. Andere Autor*innen haben bereits überzeugend dargelegt, dass das Geschäftsmodell dieser Firmen gegen die DSGVO verstößt – und dass die JI-Richtlinie einem Einsatz der Software durch die Polizei entgegensteht (siehe hier und hier). Selbst wenn diese datenschutzrechtlichen Probleme zu bewältigen wären, bedürfte der polizeiliche PimEyes-Einsatz einer hinreichend bestimmten, formellen Rechtsgrundlage, um die hieraus resultierenden, schweren Grundrechtseingriffe zu rechtfertigen. Martini und Schindler haben gezeigt, dass solche Rechtsgrundlagen nicht existieren.

Aus strafprozessualer Perspektive betrifft diese Erkenntnis erst einmal nur die Ebene der Beweiserhebung. Nach ständiger Rechtsprechung des Bundesgerichtshofs (exemplarisch BGHSt 19, 325 = NJW 1964, 1139) folgt aus einem Beweiserhebungs- keineswegs automatisch ein Beweisverwertungsverbot. Stattdessen gilt die sogenannte Abwägungslehre: Ein Beweisverwertungsverbot greift nur, wenn die Schwere des in der Beweiserhebung liegenden Rechtsverstoßes schwerer wiegt als das verfassungsrechtliche Interesse an effizienter Strafverfolgung. Das Bundesverfassungsgericht hat grundsätzlich bestätigt, dass die Abwägungslösung des Bundesgerichtshofs mit dem Recht auf ein faires Verfahren vereinbar ist (siehe BVerfGE 130, 1, Rn. 123 ff.). Hierzu merkt das Bundesverfassungsgericht jedoch an, dass ein Beweisverwertungsverbot „insbesondere nach schwerwiegenden, bewussten oder objektiv willkürlichen Rechtsverstößen, bei denen grundrechtliche Sicherungen planmäßig oder systematisch außer Acht gelassen worden sind, geboten sein“ kann (BVerfGE 130, 1, Rn. 117). Einen solchen schwerwiegenden Verstoß nimmt der BGH beispielsweise in Fällen an, in denen die Polizei planvoll den für Wohnungsdurchsuchungen geltenden Richtervorbehalt umgeht (siehe BGH 4 StR 15/20).

Ich denke, dass ein derartiger Verstoß auch beim Einsatz von PimEyes vorliegt. Zunächst wiegt die entstandene Grundrechtsverletzung schwer: Martini hat berechtigterweise darauf hingewiesen, dass biometrisch durchsuchbare Bilddatenbanken, die das ganze Internet abbilden, eine verdachtsunabhängige Vorratsdatenspeicherung darstellen, die eine Identifikation und Profilbildung bezüglich nahezu der gesamten Bevölkerung ermöglicht – ein mögliches Ende der Anonymität. Ähnlich wie bei der automatisierten Kennzeichenkontrolle (siehe BVerfGE 150, 244) ist also nicht nur auf den Einzelnen abzustellen, dessen Daten selten nachhaltig betroffen sind, sondern insbesondere auf die Allgemeinheit, die in ihrer Totalität erfasst wird. Weil darüber hinaus Gesichter als Datenquellen sensibler sind als Nummernschilder liegen die Rechtfertigungsanforderungen bei der biometrischen Gesichtserkennung höher als bei der Kennzeichenerfassung, sodass der Gesetzgeber für einen Einsatz klare anlass- und rechtsgutsbezogene, verfahrensrechtliche, Transparenz-, Rechtsschutz- und Datenquellen-bezogene Begrenzungen zu regeln hätte.

Die Polizei umginge beim ungeregelten PimEyes-Einsatz all diese Grundrechtsgarantien planmäßig und willkürlich. Denn sie würde nicht nur eine Ermächtigungsgrundlage falsch anwenden; es gibt schon keinerlei Rechtsgrundlage für eine gigantische, anlasslose Vorratsdatenspeicherung in Kombination mit einem KI-getriebenen, biometrischen Bildabgleich. Darüber hinaus muss sich jeder Polizeistelle angesichts einer inzwischen Jahrzehnte währenden Rechtsprechung zur informationellen Selbstbestimmung aufdrängen, dass ein solcher Vorgang einfach so, fernab jedweder Ermächtigungsgrundlage, nicht rechtens sein kann – und dass PimEyes in seiner jetzigen Form pauschal und ohne materielle Schutzstandards einzusetzen auch niemals verfassungsmäßig sein könnte. Die Software trotzdem zu verwenden kann kaum anders als eine planmäßige Umgehung der sonst rigiden rechtlichen Beschränkungen für KI-getriebene Big-Data-Techniken gewertet werden.

Im Übrigen kommt bezüglich der Konstellation 3 im Vergleich zur Konstellation 2 hinzu, dass beim explorativen Einsatz von PimEyes zur Verdachtsbegründung oder -konsolidierung die spezifischen Belastungseffekte einer automatisierten Datenanalyse entstehen können. Hier kann der biometrische Bildabgleich Teil einer profilbildenden, komplexen Datenanalyse sein, aus der die Polizei „neue Zusammenhänge erschließen“ und aus „mehrstufigen Analysen neue Verdachtsmomente erzeugen“ und so „operative Maßnahmen anschließen“ kann (BVerfG, 1 BvR 1547/19, Rn. 90). In diesen Fällen können die zusätzlichen Rechtfertigungsanforderungen aus der hessenDATAEntscheidung greifen. Angesichts der enormen Streubreite und möglichen Sensibilität der von PimEyes verwerteten Daten bedürfte es dann zumindest einer hinreichend konkretisierten Gefahr für besonders gewichtige Rechtsgüter. Wenn Polizeibeamt*innen planvoll diese Grundrechtsstandards umgehen, dann werden hieraus resultierende Beweisverwertungsverbote auch oft Fernwirkungen entfalten. Die Unverwertbarkeit von PimEyes-Ergebnissen kann aufgrund der Schwere des Rechtsverstoßes in Einzelfällen auch andere Beweismittel „infizieren“, die sich als direkte Folge des PimEyes-Einsatzes ergeben haben.

Insofern etwa Martini und Kemper diese Fernwirkungen ablehnen, weil ein Gesicht für jeden sichtbar ist und Bilder von Gesichtern zu verwerten daher nicht private Kernbereiche, sondern lediglich die Sozialsphäre berühre, ist dem Folgendes zu entgegnen: Es zählt nicht nur das Gesicht selbst, sondern auch die Situation in der es abgebildet wird. Anders als etwa limitierte Bilddatenbanken, die Menschen lediglich in einer öffentlichen Situation wie in etwa einer Bahnhofshalle erfassen, gibt es bei PimEyes, das das ganze Internet abbildet, keine solche Begrenzung. Niemand kann letztlich wissen, geschweige denn vollständig kontrollieren, wer in welchen Situationen welche Aufnahmen von ihm*ihr erstellt – und dann ins Netz lädt. Bei einer journalistischen Recherche haben Journalist*innen der New York Times durch PimEyes zahlreiche Fotos von sich gefunden, von deren Existenz sie nicht wussten. Solche Bilder können Menschen in jeder Lebenssituation abbilden; sei es im Capoeira-Verein, auf einer Demonstration, im Gottesdienst, als (nicht einwilligungsfähiges) Kind, beim Drogenkonsum auf Festivals, in der eigenen Wohnung, oder schlimmstenfalls in Rachepornos.

Für Beweisverbote streiten ferner das primäre und das sekundäre Unionsrecht. Weil die JI-Richtlinie der Bundesrepublik bezüglich der polizeilichen Datenverarbeitung beträchtliche Umsetzungsspielräume lässt, sind gemäß der Rechtsprechung des Bundesverfassungsgerichts in Recht auf Vergessen I primär die Grundrechte des Grundgesetzes ausschlaggebend. Gleichzeitig sind aber auch besondere Schutzausprägungen der EU-Charta-Grundrechte zu berücksichtigen. Weil sich die Polizei mit PimEyes eine besonders breite Form der Vorratsdatenspeicherung zunutze macht, wäre auch die seit Digital Rights Ireland bestehende EuGH-Rechtsprechung zu berücksichtigen. Diese lässt eine vollständig anlasslose Vorratsdatenspeicherung wie PimEyes nicht zu.

Darüber hinaus verstieße die Polizei mit einem unregulierten PimEyes-Einsatz gegen europäisches Sekundärrecht, nämlich erstens die JI-Richtlinie und zweitens zukünftig gegen die KI-Verordnung der EU. Diese ordnet in ihrem Annex III nachträgliche, biometrische Fernidentifikationssysteme als Hochrisikosysteme ein, sodass die rigiden Pflichten der Art. 8 ff. gelten – die PimEyes alle nicht erfüllt. Diese Rechtsinstrumente enthalten zwar keine spezifischen Regelungen zu Beweisverwertungsverboten. Aus punktuellen Verstößen wird man sicher nicht immer solche Verbote ableiten können. Wenn aber nationale Behörden bewusst auf private Software zurückgreifen, die offensichtlich gegen die Fundamente dieser Sekundärrechtsakte verstößt, um deren Schutzwirkungen planvoll zu umgehen, dann scheint der effet utile dieser Rechtsakte beeinträchtigt. Nationale Gerichte wären also unter Umständen angehalten, ein Vorabentscheidungsverfahren nach Art. 267 AEUV einzuleiten.

Der Genuss der verbotenen Frucht ist vermeidbar

Ein ungeregelter, polizeilicher Einsatz von PimEyes und co kann also zu Beweisverwertungsverboten führen. Die Frucht der vergifteten Maschine genießen zu wollen ist daher ermittlungstaktisch risikoreich – die verlockende Schnelligkeit, mit der Menschen per Mausklick identifiziert und analysiert werden können, könnten Behörden mitunter mit juristischen Niederlagen bezahlen müssen. Das bedeutet aber nicht, dass die Polizei biometrische Gesichtserkennung niemals zu Strafverfolgungszwecken einsetzen dürfte. Für diesen Fall sollte müsste der Gesetzgeber aber eine hinreichend bestimmte Rechtsgrundlage schaffen, die sich an den oben genannten, verfassungs- und unionsrechtlichen Standards orientiert. Eine völlig fernab jedweder Aufsicht, Transparenz, Zugangskontrolle und Datenbegrenzung operierende Software wie PimEyes wäre aber auch so nicht legalisierbar. Stattdessen braucht es technische Lösungen, die auf die Bedürfnisse der Polizei und die Maßstäbe des Rechtsstaats zugeschnitten sind.


SUGGESTED CITATION  Thönnes, Christian: Daniela Klette und die Frucht der vergifteten Maschine, VerfBlog, 2024/3/22, https://healthyhabit.life/klette-und-die-frucht-der-vergifteten-maschine/, DOI: 10.59704/38f07745e9336f86.

4 Comments

  1. Thomas Faelligen Sat 23 Mar 2024 at 16:37 - Reply

    Es hätte dem Beitrag gut getan, sich komplett von den Spekulationen über einen möglichen Einsatz von Pimeyes beim Aufspüren von Frau Klette zu lösen. Herr Thönnes weiß schlicht nicht, ob Pimeyes hier zum Einsatz kam. Auch die These, eine Privatperson hätte Pimeyes genutzt und dann den Hinweis gegeben, ist völlig ungesichert.
    Die rechtlichen Ausführungen werden dadurch ja nicht sinnlos. Nur erweckt der Beitrag so eben einen gewissen zielorientierten Eindruck, den man vielleicht besser vermieden hätte.

    Der Teil über das Beweisverwertungsverbot und eine mögliche Fernwirkung scheint mir auf den Fall Klette bezogen außerdem unpassend. Die personelle Identität ist doch nichts, das im Strafverfahren zu beweisen wäre? Fragen zur Person müssen vom Beschuldigten korrekt beantwortet werden, während er zur Sache lügen oder schweigen darf.
    Und würde die Fernwirkung dann darin bestehen, dass Klette aus der Untersuchungshaft zu entlassen wäre? Ich kann mir das praktisch schlicht nicht vorstellen. Wieviel Vorsprung müsste man ihr geben, damit es wieder gerecht ist und man weiter nach ihr suchen kann?

    Es hat sicher schon Rechtsverletzungen bei der Ergreifung von Personen gegeben (fehlerhafte Durchsuchungsbeschlüsse etc). Wie waren in diesen Fällen die konkreten Auswirkungen auf das weitere Verfahren?

    • cornelia gliem Wed 27 Mar 2024 at 13:27 - Reply

      niemand wird – in Deutschland – wegen der Verbotenen Frucht jemanden entlassen, der mit ausreichend anderen Beweisen belegbar schuldig ist. insofern ist das Beispiel Klette, bei dem ja jemand bereits bekanntes untergetaucht war, tatsächlich vielleicht etwas ungünstig. Andererseits hätte es ja passieren können, dass die Polizei jemanden verhaftet hätte, der trotz Ähnlichkeit gar nicht Frau Klette ist, was die Polizei aber “gemerkt” hätte, hätte sie sich nicht (nur) auf den Pimeye-Hinweis verlassen.
      Und es geht um die mögliche Strafbarkeit von Verhalten der Polizei – diese Auswirkungen der Verbotenen Frucht sind recht relevant.

  2. Lukas Landerer Mon 25 Mar 2024 at 13:32 - Reply

    Vielen Dank für diesen gelungenen Beitrag, der zurecht auf die vielen offenen Rechtsfragen rund um den Einsatz von Webcrawlern/-scrapern aufmerksam macht.

    Den Begriff der Vorratsdatenspeicherung wird man wohl enger auslegen müssen, aber in der Tat ist es ein großes Problem, dass sich die Rechtsprechung noch nicht ausreichend mit der automatisierten Nutzung privat veranlasster Netzdaten auseinandergesetzt hat. Die stellen vielleicht ein größeres Problem dar, als die Daten, deren vorratsmäßige Aufbewahrung der Staat zu Sicherheitszwecken vorschreibt (das ist bisher mit “Vorratsdatenspeicherung” gemeint).

    Bislang gibt es nur die Rechtsprechung zur “Online-Suche” in Abgrenzung zur “Online-Durchsuchung”. Darauf wird sich die Polizei bei der Anwendung von Crawlern wohl erst einmal stützen. Gut, dass hiergegen schon jetzt die Einwände vorgetragen werden! Ob der Verstoß gegen die JI-RL aber so fundamental ist, dass sich hieraus ein Beweisverwertungsverbot ohne Abwägung ergeben könnte, werden die Strafgerichte wohl bezweifeln. Die JI-RL regelt den Strafprozess nach eigenem Ansinnen gerade nicht (dieser Satz mit Augenzwinkern).

  3. Manfred Muster Thu 28 Mar 2024 at 10:28 - Reply

    Ich bin seit 31 Jahren im Strafrecht praktizierend tätig. Und so interessant sich der Artikel auch darstellt, kann er doch nur als eine rein theoretische Fantasie verstanden werden.
    Mal ganz ehrlich, liebe Kollegen (…ja, nun bitte keine Schnappatmung bekommen: Ich bevorzuge due deutsche Sprache gänzlich ohne Regenbogenbeflaggung) : Kennen Sie auch nur einen Staatsanwalt, einen Richter, eine deutsche oder europäische Polizeibehörde, bei der die konsequente Wahrung hier vorgestellter Standards Vorzug vor dem Tagesgeschäft hätte?

    Mir hätte es weitaus besser gefallen, im Zusammenhang von KI, zentralisierte Überwachung, über die tatsächlichen (gern verfilzten) Zustände in Polizei, Justiz und Verwaltung, über die im Rahmen der tatsächlichen Strafrechtspraxis zur völligen Lachnummer verkommenen DSGVO, längst weitgehend praxisuntauglicher Beweislastregeln … von Vorschlägen für eine grundlegende Reform zur Wiederherstellung angemessener Verfahrensregeln -auch und insbesondere eine tatsächlich generelle Unschuldsvermutung- zu erfahren.

    Mit Verlaub: All die bereits gegebenen und stetig expansiv hinzukommenden technischen Mittel und Möglichkeiten sind scharfe Waffen. Frei und so unkontrollierbar wie in der Anwendung mit regulären Mitteln fallweise kaum wirklich beweislich verfügbar. Wem also bitte möchten wir -und sei es mit dieser rein rechtstheoretischen Draufschau- etwas vormachen?
    Oder anders: Möchte jemand von Ihnen, die Sie beruflich Kunde über die Strafrechtspraxis erlangten, sich als Verdächtiger mit den tatsächlich verbliebenen strafprozessualen Mitteln verteidigend gegen genau das Monster zur Wehr setzen wollen, was wir geschaffen haben? Gegen eine völlig überlastete, individuell erfolgs- und gefälligkeitsabhängige, arg korruptionsanfällige Justiz mit Zugang zu Handwerkszeug, das selbst Orwell sich nicht erträumen konnte? (Und: Dass einen Jeden von uns längst von Null bis Bahre in Permanenz der Generalverdacht bei demgemäßer Ausfirschung begleitet, dürfte bei nüchterner Betrachtung unbestreitbar bleiben.)

    Wenn ja, berichten Sie bitte unbedingt gern öffentlich Ihre Erfahrungen.

Leave A Comment

WRITE A COMMENT

1. We welcome your comments but you do so as our guest. Please note that we will exercise our property rights to make sure that Verfassungsblog remains a safe and attractive place for everyone. Your comment will not appear immediately but will be moderated by us. Just as with posts, we make a choice. That means not all submitted comments will be published.

2. We expect comments to be matter-of-fact, on-topic and free of sarcasm, innuendo and ad personam arguments.

3. Racist, sexist and otherwise discriminatory comments will not be published.

4. Comments under pseudonym are allowed but a valid email address is obligatory. The use of more than one pseudonym is not allowed.