Künstliche Intelligenz und Recht
Berne, 22.03.2024 - Konferenz zur Regulierung von Künstlicher Intelligenz, Zurich
La parole prononcée fait foi (ce contenu n'est pas disponible en français)
Sehr geehrte Damen und Herren
Als Mensch und als Vorsteher des EJPD bin ich hin- und hergerissen zwischen dem Nutzen von künstlicher Intelligenz und den Risiken, die sie für die Grundrechte mit sich bringen.
Nehmen wir ein Beispiel: Der Einsatz von Gesichtserkennung ist sehr umstritten. Gesichtserkennung ermöglicht es, die Täterin oder den Täter von Gewalttaten im Nachhinein oder sogar in Echtzeit zu identifizieren. Unter dem Gesichtspunkt der Verbrechensbekämpfung bietet der Einsatz der Gesichtserkennung klare Vorteile.
Aber es gibt auch eine Kehrseite der Medaille: Werden wir noch ohne Hintergedanken an einer Demonstration teilnehmen, wenn wir wissen, dass wir jederzeit identifizierbar sind? Wird der Einsatz der Gesichtserkennung nicht unsere Meinungsfreiheit und unsere Bewegungsfreiheit beeinträchtigen? Besteht nicht die Gefahr, dass wir uns auf eine Gesellschaft hinbewegen, in der wir unter ständiger Überwachung stehen, wie es in einigen Ländern bereits der Fall ist? Und wer wird noch unbeschwert zu einem Vorstellungsgespräch gehen, wenn sie oder er weiss, dass ihre oder seine Emotionen von einem eigens dafür entwickelten Algorithmus erkannt werden?
Oder: Sollen wir KI bei Interviews mit Asylbewerbern einsetzen? Ich weiss nicht, ob sie den Film «Die Anhörung» gesehen haben. Ein eindrücklicher Film. Er zeigt Interviews, welche meine Mitarbeiterinnen und Mitarbeiter des Staatssekretariats für Migration mit Asylbewerbern führen. Aus der Perspektive der Asylbewerber stellt sich oftmals die Frage - vor allem bei einem negativen Asylentscheid - warum glaubt mir die Interviewerin, der Interviewer meine Geschichte nicht. Könnte KI den Menschen also nicht helfen? Weil sie vielleicht besser herausfindet, wann jemand die Wahrheit sagt?
Oder: Sollen wir KI bei der Betreuung von handicapierten Menschen einsetzen? KI könnte deren Emotionen vielleicht besser lesen als wir?
Wir merken sofort, beides wäre sehr heikel. Am Schluss geht es nämlich auch immer um die menschliche Würde und um die Frage, ob wir mit dem Einsatz von künstlicher Intelligenz diese verletzen.
Als Vorsteher des EJPD trage ich die oberste Verantwortung für die Schaffung von Rahmenbedingungen für den Schutz der Grundrechte und der politischen Rechte in der Schweiz. Ich bin überzeugt, dass wir auch für den Einsatz von KI solche Rahmenbedingungen definieren müssen.
Das bedeutet aber nicht, dass jetzt alles verboten werden soll. Wir wollen nicht das Kind mit dem Bade ausschütten. Aber wir müssen die künstliche Intelligenz verantwortungsvoll einsetzen, indem wir uns ständig bewusst machen, welche Chancen sie uns bietet, aber auch, welche Risiken damit verbunden sind.
Eine der grössten Herausforderungen der künstlichen Intelligenz sowohl im öffentlichen wie auch im privaten Sektor besteht in der Gefahr, dass Diskriminierungen verstärkt oder sogar neu geschaffen werden. Das dürften wir nicht zulassen. Das Unternehmen Amazon hat diese bittere Erfahrung machen müssen: Es hatte ein Rekrutierungsinstrument eingesetzt, das auf Algorithmen basierte, die systematisch Bewerbungen von Frauen aussortierten. Als Verantwortlicher desjenigen Departements, das auch für das Gleichstellungsgesetz verantwortlich ist, möchte ich vielmehr, dass die künstliche Intelligenz uns dabei hilft, Diskriminierung zu bekämpfen.
KI ist aber bereits heute nicht mehr wegzudenken.
Die künstliche Intelligenz hält Einzug in unseren Alltag: Es vergeht kein Tag, an dem künstliche Intelligenz nicht in den Medien thematisiert wird. Und vielleicht haben einige von Ihnen schon Anwendungen wie ChatGPT getestet, um ein Referat zu schreiben. Wenn dies der Fall ist, werden Sie von der Leistungsfähigkeit dieser Anwendung wahrscheinlich beeindruckt gewesen sein. Gleichzeitig haben Sie wahrscheinlich auch festgestellt, dass diese «Tools» nicht unfehlbar sind. Manchmal liefern sie auch absurde Ergebnisse!
Wer von Ihnen ist sich bewusst, dass es aus Sicht des Datenschutzes und der Informationssicherheit problematisch sein kann, wenn Sie persönliche oder vertrauliche Daten an diese Tools weitergeben? Die Arbeitsgruppe «KI in der Bundesverwaltung» hat kürzlich ein Merkblatt für die Mitarbeiterinnen und Mitarbeiter der Bundesverwaltung verfasst, um sie für diese Art von Risiken zu sensibilisieren. Diese Risiken sind zwar nicht neu, aber wir sind uns nicht immer bewusst, dass sie bestehen, wenn wir diese Anwendungen nutzen.
Eine besondere rechtliche Herausforderung für die öffentliche Hand ist die Transparenz und Rechtmässigkeit: Das Handeln der öffentlichen Verwaltung wird durch das Gesetz geregelt. Das Gesetz sorgt für Vorhersehbarkeit und Rechtssicherheit und schützt uns vor Willkür. In einem Land, in dem die Volksrechte enorm wichtig sind, sorgt das Legalitätsprinzip auch für demokratische Legitimität. Der Einsatz von künstlicher Intelligenz in der öffentlichen Verwaltung sollte daher transparent sein und, wenn Risiken damit verbunden sind, auf einer ausreichenden gesetzlichen Grundlage beruhen.
Tatsächlich setzen immer mehr öffentliche Verwaltungen und Unternehmen der Privatwirtschaft setzen künstliche Intelligenz ein, da diese Anwendungen Effizienzsteigerungen und Kosteneinsparungen mit sich bringen. Auch mein Departement gehört dazu. Das Staatssekretariat für Migration SEM testet mit der ETH Zürich seit einigen Jahren einen Verteil-Algorithmus für Asylsuchende mit Bleibeperspektive, der die individuellen Integrationschancen bei der Kantonsverteilung miteinbezieht. Die ETH Zürich prognostiziert eine deutliche Steigerung der Erwerbsquote und damit eine Senkung der Sozialhilfekosten. Wenn sich die Verwaltung offen zeigt für Innovation, auch in Zusammenarbeit mit der Forschung, so kann dies einen gesellschaftlichen Mehrwert schaffen.
Es ist legitim, dass öffentliche Verwaltungen versuchen, mithilfe von künstlicher Intelligenz leistungsfähiger zu werden. Dennoch sollten wir wachsam bleiben. Wir alle erinnern uns an Beispiele für den Einsatz von künstlicher Intelligenz, die zu katastrophalen Ergebnissen geführt haben: So hat der Einsatz eines Tools zur Betrugserkennung durch die niederländischen Steuerbehörden das Leben von Zehntausenden von Menschen nachhaltig beeinträchtigt, indem gegen sie unbegründete Verdächtigungen erhoben wurden. Wir wollen nicht, dass diese Art von Skandal in der Schweiz passiert. Daher ist es wichtig, die Auswirkungen solcher KI-Tools vor und nach ihrer Inbetriebnahme zu analysieren.
Der Bundesrat hat sich bereits im Jahr 2019 mit den Herausforderungen der künstlichen Intelligenz befasst. Er kam damals zum Schluss, dass sich die künstliche Intelligenz nicht in einem rechtlichen Vakuum entwickelt. Die bestehenden rechtlichen Bestimmungen gelten auch für die künstliche Intelligenz.
Wenn beispielsweise ein Roboter einen Schaden verursacht, so unterliegt die Verpflichtung zur Wiedergutmachung den allgemeinen Grundsätzen des Haftpflichtrechts. Seit dem 1. September 2023 ist zudem der Identitätsmissbrauch strafbar: Art. 179 decies des Strafgesetzbuchs verbietet die Verwendung der Identität einer anderen Person ohne deren Einwilligung mit der Absicht, dieser zu schaden oder um sich oder einem Dritten einen unrechtmässigen Vorteil zu verschaffen, zum Beispiel durch «Deepfakes».
Die Schweiz trägt aktiv zur Entwicklung der globalen Gouvernanz von künstlicher Intelligenz bei. Der Ausschuss für künstliche Intelligenz des Europarats wird von einem Schweizer präsidiert (Thomas Schneider, BAKOM).
Zwar hat die Schweiz keinen "AI Act" ausgearbeitet. Der Bundesrat hat aber das UVEK und das EDA beauftragt, bis Ende 2024 eine umfassende Analyse über den Regulierungsbedarf der künstlichen Intelligenz in der Schweiz zu erstellen. Diese wird die Entwicklungen in der EU und im Europarat berücksichtigen. Mein Departement - das Bundesamt für Justiz - wird sich in diesem Projekt insbesondere mit der rechtlichen Analyse befassen. Sie werden also wieder von uns hören!
Vielen Dank für Ihre Einladung und für Ihre Aufmerksamkeit.
Adresse pour l'envoi de questions
Service de communication DFJP , info@gs-ejpd.admin.ch, T +41 58 462 18 18
Auteur
Département fédéral de justice et police
http://www.ejpd.admin.ch