261 lines
No EOL
8.8 KiB
TeX
261 lines
No EOL
8.8 KiB
TeX
% !TeX program = lualatex
|
|
|
|
\documentclass{beamer}
|
|
|
|
\usetheme{DarkConsole}
|
|
\usepackage{graphicx}
|
|
\usepackage{caption}
|
|
|
|
%\setbeamersize{text margin left=20pt,text margin right=10pt}
|
|
|
|
\title{\texttt{Smart Borders?}}
|
|
\subtitle{Wie die EU versucht Grenzübergänge mit einem diskriminierenden KI-Lügendetektor zu regulieren.}
|
|
\author{verschiedene\footnote{\texttt{AG Link}}}
|
|
|
|
\begin{document}
|
|
|
|
\begin{frame}
|
|
\maketitle
|
|
\end{frame}
|
|
|
|
\begin{frame}{Inhalt}
|
|
\tableofcontents
|
|
\end{frame}
|
|
|
|
\section{Was ist iBorderCtrl? (15min)}
|
|
\subsection{Akteure und Organisationsstruktur}
|
|
\begin{frame}{Akteure und Organisationsstruktur}
|
|
\begin{itemize}
|
|
\item Horizon 2020 (auch Roborder)
|
|
\item Tresspass etc.
|
|
\item Finanzierung
|
|
\item Beteiligte Forschungseinrichtungen, beteiligte Unternehmen?
|
|
\item Aktueller Entwickllungsstand
|
|
\end{itemize}
|
|
\end{frame}
|
|
\subsection{Silent Talker}
|
|
\begin{frame}{Silent Talker}
|
|
\end{frame}
|
|
\begin{frame}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.8]{iborderctrl-avatar-300x268.jpg}
|
|
\caption*{Quelle: iborderctrl.eu}
|
|
\end{figure}
|
|
"The avatar is presented in a uniform to convey an air of authority." (K.Crockett et.al.)
|
|
\end{frame}
|
|
\subsection{Geschichte des Lügendetektor}
|
|
|
|
|
|
\begin{frame}{Die Geschichte des Lügendetektors - Der Polygraph}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.8]{Polygraph}
|
|
\caption*{Foto: Sebastian Kahnert/ dpa}
|
|
\end{figure}
|
|
\end{frame}
|
|
\begin{frame}{Die Geschichte des Lügendetektors - Der Polygraph}
|
|
\begin{itemize}
|
|
\item Entwicklung in der ersten Hälfte des 20. Jahrhunderts
|
|
\item Maßgeblich von John A. Larson (Polizist und Physiologe) geprägt
|
|
\item Später patentiert und vermarktet
|
|
\item Forschung umstritten
|
|
\item Einige Studien legen nahe, dass Ergebnisse beinahe zufällig sind
|
|
(Saxe, Ben-Shakhar, 1999)
|
|
\item Andere Systeme, die physiologische Reaktionen testen ähnlich umstritten
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Die Geschichte des Lügendetektors - Mikroexpressionen}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.35]{Ekman_Facial_Affekt}
|
|
\caption*{Paul Ekman's Pictures of Facial Affect}
|
|
\end{figure}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Die Geschichte des Lügendetektors - Mikroexpressionen}
|
|
\begin{itemize}
|
|
\item Facial Action Coding System (FACS) von Ekman und Friesen entwickelt,
|
|
\item 'Mikroexpressionen' codieren Gefühle des Menschen,
|
|
\item Annahme: Lügen ist emotionaler AKt und kann mit Mikroexpressionen entschlüsselt werden,
|
|
\item Studien zeigen: Vorgehen ist so exakt wie zufällige Vermutung,
|
|
\item Forschung ist uneinig, ob Mikroexpressionen bei jedem Menschen vorliegen und eindeutig sind.
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Die Geschichte des Lügendetektors - Die Rolle von KI}
|
|
\begin{itemize}
|
|
\item Versuche Mikroexpressionen und ähnliches mit KI zu klassifizieren,
|
|
\item Nutzung für die Optimierung von Werbeanzeigen (Facebook),
|
|
\item Projekt AVATAR (US-Projekt für Grenzkontrollen)
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\section{Grundlagen KI (10min)}
|
|
\subsection{KI, Algorithmen und maschinelles Lernen}
|
|
\begin{frame}{KI, Algorithmen und maschinelles Lernen}
|
|
\end{frame}
|
|
|
|
\subsection{Overfitting}
|
|
\begin{frame}{Overfitting}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.4]{overfitting.png}
|
|
\caption*{Quelle: Sagar Sharma / Towards Data Science}
|
|
\end{figure}
|
|
\end{frame}
|
|
|
|
|
|
\section{Grenzen und Risiken von KI (20min)}
|
|
\subsection{KI und Interpretierbarkeit}
|
|
|
|
\begin{frame}{Was heißt interpretierbar?}
|
|
\begin{itemize}
|
|
\item Keine einheitliche Definition
|
|
\item Interpretierbarkeit als "Verstehen des Algorithmus":
|
|
\begin{itemize}
|
|
\item Bedeutung der Parameter kann verstanden werden
|
|
\item Funktionsweise des Alogrithmus kann für jeden Input nachvollzugen werden
|
|
\item Kann bei KI oft nicht angewendet werden
|
|
\end{itemize}
|
|
\item Interpretierbarkeit durch methodische Analyse:
|
|
\begin{itemize}
|
|
\item Verschiedene Techniken
|
|
\item Benutzung weiterer KI
|
|
\item Analyse durch Manipulation von Datensätzen
|
|
\item Konzepte sind neu
|
|
\item Bedeutung und Korrektheit nicht geklärt
|
|
\end{itemize}
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Wofür braucht mensch Interpretierbarkeit?}
|
|
\begin{itemize}
|
|
\item Kausalität vs. Korrelation, was lernt die KI?
|
|
\item Bsp.: KI soll Basketbälle erkennen und wird mit Bildern unterschieldicher
|
|
Bälle trainiert. Erkennt die KI tatsächlich den Basketball oder einfach nur
|
|
die Farbe Oragne?
|
|
\item Wenn KI in gesellschaftlich relevanten Bereichen eingesetzt wird, kann
|
|
es entscheidend sein Ergebnisse interpretieren zu können
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Missklassifikationshack}
|
|
\begin{itemize}
|
|
\item Ergebnisse der KI hängen stark vom Datensatz ab
|
|
\item Daraus ergibt sich ein Angriff auf KI's
|
|
\item Die Kriterien für die Entscheidung der KI stimmen nicht mit menschlichen Kriterien überein
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Panda oder Gibbon? }
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.55]{panda_gibbon}
|
|
\caption*{Quelle: J. Goodfellow et. al. }
|
|
\end{figure}
|
|
\end{frame}
|
|
|
|
\begin{frame}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.07]{gibbon}
|
|
\caption*{Quelle: }
|
|
\end{figure}
|
|
\end{frame}
|
|
|
|
\subsection{KI und Bias}
|
|
\begin{frame}{Arten von Bias}
|
|
Bias = Verzerrung
|
|
\vspace{0,5cm}
|
|
\begin{itemize}
|
|
\item Bias in den Daten
|
|
\item Bias durch Design des Algorithmus
|
|
\item Bias durch Rückkopplung im Gebrauch
|
|
\end{itemize}
|
|
\vspace{0,5cm}
|
|
Konsequenz: Diskriminierende Algorithmen (auch Gender Bias, Racial Bias, Neurodiversity Bias etc. genannt)
|
|
\end{frame}
|
|
|
|
\begin{frame}{Bias in den Daten}
|
|
\begin{itemize}
|
|
\item \alert<1>{Measurement Bias:} Wie werden bestimmte Eigenschaften gemessen/bestimmt?
|
|
\begin{itemize}
|
|
\item COMPAS: Verhaftungen auch von Familie etc. wurden genutzt um Risiko zu bewerten
|
|
\end{itemize}
|
|
\item<2-> \alert<2>{Omitted Variable Bias:} Wichtige Daten werden nicht im Modell berücksichtigt
|
|
\begin{itemize}
|
|
\item Ein Programm das die Kündigung von Abos (zB Netflix) prognostiziert, aber neue Konkurrenzangebote nicht beachtet
|
|
\end{itemize}
|
|
\item<3-> \alert<3>{Represenation Bias:} Fehlende Diversität in den verfügbaren Daten
|
|
\begin{itemize}
|
|
\item Coded Gaze, Joy Buolamwini
|
|
\end{itemize}
|
|
\item<4-> \alert<4>{Aggregation Bias:} Spezifische Eigenschaften von Minderheiten gehen im gesamten Datensatz unter/Ableiten von Aussagen über Individuen aus Minderheit aus allgemeinem Datensatz
|
|
\begin{itemize}
|
|
\item Diskriminierungsklage gegen die Universität Berkeley
|
|
\end{itemize}
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Bias durch Design}
|
|
\begin{itemize}
|
|
\item Evaluation Bias: Ergebnis wird an unrealistischen Kriterien gemessen
|
|
\begin{itemize}
|
|
\item Bias in Gesichtserkennung fällt nicht auf, weil Benchmarkdatenset gebiast ist
|
|
\end{itemize}
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Bias durch Rückkopplung}
|
|
\begin{itemize}
|
|
\item Beispiel Profiling
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\section{Bias in iBorderCtrl (20min)}
|
|
|
|
\begin{frame}{Bias in iBorderCtrl}
|
|
\begin{itemize}
|
|
\item<1-> \alert<1>{Measurement Bias:} Schauspieler*innen statt echte Situationen, Stress beim Grenzübergang löst u.U. gleiche Symptome wie Lügen aus
|
|
\item<2-> \alert<2>{Omitted Variable Bias:} Lügen/nicht Lügen zeigt sich in nichterfassten Phänomenen
|
|
\item<3-> \alert<3>{Representation Bias:} fehlende Diversität race, gender, neurdiversity, disability, health, scars
|
|
\item<4-> \alert<4>{Aggregation Bias:} Reaktionen (z.B. Mikroexpressionen) nicht konsistent. Gleiches Verhalten kann unterschiedliches bedeuten.
|
|
\item<5-> \alert<5>{Overfitting:} 73 Prozent in Testdaten vs 93 Prozent in Trainingsdaten, das impliziert Overfitting ist wahrscheinlich
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Bias in iBorderCtrl}
|
|
\begin{itemize}
|
|
\item<1-> \alert<1>{Evaluation Bias:} Testbedingungen entsprechen nicht den Einsatzbedingungen, zB Licht, Diversität
|
|
\item<2-> \alert<2>{Bias durch Rückkopplung:} Wenn Einsatzdaten wieder eingespeist werden, dann: LD klassifiziert mehr Benachteiligte als lügend, Überprüfungsbeamt*in ebenso und gibt Daten zurück
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Testergebnisse}
|
|
\begin{itemize}
|
|
\item Anzahl verschiedener Personen in der Testdatenmenge: 1
|
|
\item Stichprobenstreuung: 24.37 (Truthful) / 34.29 (Deceptive)
|
|
\end{itemize}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.36]{Ergebnis_ibc}
|
|
\end{figure}
|
|
\end{frame}
|
|
\section{Ausblick und Diskussion(20min)}
|
|
\subsection{Politische Einordnung}
|
|
\begin{frame}{Politische Einordnung}
|
|
\begin{itemize}
|
|
\item Unfreiwillige Datenerhebung zur "Verbesserung" des Algorithmus
|
|
\item Entwicklung Ethischer Normen für KI (EU KI Standards, Gesellschaft für Informatik)
|
|
\end{itemize}
|
|
\end{frame}
|
|
\subsection{Wie und wofür forschen wir?}
|
|
\begin{frame}{Wie und wofür forschen wir?}
|
|
\begin{itemize}
|
|
\item Wissenschaft wird immer wieder instrumentalisiert
|
|
\item Wir brauchen mehr kognitive Diversität in Forschungseinrichtungen
|
|
\item Was ist dein wissenschaftlicher Standard und worauf gründet er?
|
|
\end{itemize}
|
|
\end{frame}
|
|
\end{document}
|
|
|
|
\begin{frame}{Quellen}
|
|
\begin{itemize}
|
|
\item Quelle 1 ..
|
|
\end{itemize}
|
|
\end{frame} |