iborderctrl/IBC.tex
2021-09-12 17:47:22 +02:00

261 lines
No EOL
8.8 KiB
TeX

% !TeX program = lualatex
\documentclass{beamer}
\usetheme{DarkConsole}
\usepackage{graphicx}
\usepackage{caption}
%\setbeamersize{text margin left=20pt,text margin right=10pt}
\title{\texttt{Smart Borders?}}
\subtitle{Wie die EU versucht Grenzübergänge mit einem diskriminierenden KI-Lügendetektor zu regulieren.}
\author{verschiedene\footnote{\texttt{AG Link}}}
\begin{document}
\begin{frame}
\maketitle
\end{frame}
\begin{frame}{Inhalt}
\tableofcontents
\end{frame}
\section{Was ist iBorderCtrl? (15min)}
\subsection{Akteure und Organisationsstruktur}
\begin{frame}{Akteure und Organisationsstruktur}
\begin{itemize}
\item Horizon 2020 (auch Roborder)
\item Tresspass etc.
\item Finanzierung
\item Beteiligte Forschungseinrichtungen, beteiligte Unternehmen?
\item Aktueller Entwickllungsstand
\end{itemize}
\end{frame}
\subsection{Silent Talker}
\begin{frame}{Silent Talker}
\end{frame}
\begin{frame}
\begin{figure}
\includegraphics[scale = 0.8]{iborderctrl-avatar-300x268.jpg}
\caption*{Quelle: iborderctrl.eu}
\end{figure}
"The avatar is presented in a uniform to convey an air of authority." (K.Crockett et.al.)
\end{frame}
\subsection{Geschichte des Lügendetektor}
\begin{frame}{Die Geschichte des Lügendetektors - Der Polygraph}
\begin{figure}
\includegraphics[scale = 0.8]{Polygraph}
\caption*{Foto: Sebastian Kahnert/ dpa}
\end{figure}
\end{frame}
\begin{frame}{Die Geschichte des Lügendetektors - Der Polygraph}
\begin{itemize}
\item Entwicklung in der ersten Hälfte des 20. Jahrhunderts
\item Maßgeblich von John A. Larson (Polizist und Physiologe) geprägt
\item Später patentiert und vermarktet
\item Forschung umstritten
\item Einige Studien legen nahe, dass Ergebnisse beinahe zufällig sind
(Saxe, Ben-Shakhar, 1999)
\item Andere Systeme, die physiologische Reaktionen testen ähnlich umstritten
\end{itemize}
\end{frame}
\begin{frame}{Die Geschichte des Lügendetektors - Mikroexpressionen}
\begin{figure}
\includegraphics[scale = 0.35]{Ekman_Facial_Affekt}
\caption*{Paul Ekman's Pictures of Facial Affect}
\end{figure}
\end{frame}
\begin{frame}{Die Geschichte des Lügendetektors - Mikroexpressionen}
\begin{itemize}
\item Facial Action Coding System (FACS) von Ekman und Friesen entwickelt,
\item 'Mikroexpressionen' codieren Gefühle des Menschen,
\item Annahme: Lügen ist emotionaler AKt und kann mit Mikroexpressionen entschlüsselt werden,
\item Studien zeigen: Vorgehen ist so exakt wie zufällige Vermutung,
\item Forschung ist uneinig, ob Mikroexpressionen bei jedem Menschen vorliegen und eindeutig sind.
\end{itemize}
\end{frame}
\begin{frame}{Die Geschichte des Lügendetektors - Die Rolle von KI}
\begin{itemize}
\item Versuche Mikroexpressionen und ähnliches mit KI zu klassifizieren,
\item Nutzung für die Optimierung von Werbeanzeigen (Facebook),
\item Projekt AVATAR (US-Projekt für Grenzkontrollen)
\end{itemize}
\end{frame}
\section{Grundlagen KI (10min)}
\subsection{KI, Algorithmen und maschinelles Lernen}
\begin{frame}{KI, Algorithmen und maschinelles Lernen}
\end{frame}
\subsection{Overfitting}
\begin{frame}{Overfitting}
\begin{figure}
\includegraphics[scale = 0.4]{overfitting.png}
\caption*{Quelle: Sagar Sharma / Towards Data Science}
\end{figure}
\end{frame}
\section{Grenzen und Risiken von KI (20min)}
\subsection{KI und Interpretierbarkeit}
\begin{frame}{Was heißt interpretierbar?}
\begin{itemize}
\item Keine einheitliche Definition
\item Interpretierbarkeit als "Verstehen des Algorithmus":
\begin{itemize}
\item Bedeutung der Parameter kann verstanden werden
\item Funktionsweise des Alogrithmus kann für jeden Input nachvollzugen werden
\item Kann bei KI oft nicht angewendet werden
\end{itemize}
\item Interpretierbarkeit durch methodische Analyse:
\begin{itemize}
\item Verschiedene Techniken
\item Benutzung weiterer KI
\item Analyse durch Manipulation von Datensätzen
\item Konzepte sind neu
\item Bedeutung und Korrektheit nicht geklärt
\end{itemize}
\end{itemize}
\end{frame}
\begin{frame}{Wofür braucht mensch Interpretierbarkeit?}
\begin{itemize}
\item Kausalität vs. Korrelation, was lernt die KI?
\item Bsp.: KI soll Basketbälle erkennen und wird mit Bildern unterschieldicher
Bälle trainiert. Erkennt die KI tatsächlich den Basketball oder einfach nur
die Farbe Oragne?
\item Wenn KI in gesellschaftlich relevanten Bereichen eingesetzt wird, kann
es entscheidend sein Ergebnisse interpretieren zu können
\end{itemize}
\end{frame}
\begin{frame}{Missklassifikationshack}
\begin{itemize}
\item Ergebnisse der KI hängen stark vom Datensatz ab
\item Daraus ergibt sich ein Angriff auf KI's
\item Die Kriterien für die Entscheidung der KI stimmen nicht mit menschlichen Kriterien überein
\end{itemize}
\end{frame}
\begin{frame}{Panda oder Gibbon? }
\begin{figure}
\includegraphics[scale = 0.55]{panda_gibbon}
\caption*{Quelle: J. Goodfellow et. al. }
\end{figure}
\end{frame}
\begin{frame}
\begin{figure}
\includegraphics[scale = 0.07]{gibbon}
\caption*{Quelle: }
\end{figure}
\end{frame}
\subsection{KI und Bias}
\begin{frame}{Arten von Bias}
Bias = Verzerrung
\vspace{0,5cm}
\begin{itemize}
\item Bias in den Daten
\item Bias durch Design des Algorithmus
\item Bias durch Rückkopplung im Gebrauch
\end{itemize}
\vspace{0,5cm}
Konsequenz: Diskriminierende Algorithmen (auch Gender Bias, Racial Bias, Neurodiversity Bias etc. genannt)
\end{frame}
\begin{frame}{Bias in den Daten}
\begin{itemize}
\item \alert<1>{Measurement Bias:} Wie werden bestimmte Eigenschaften gemessen/bestimmt?
\begin{itemize}
\item COMPAS: Verhaftungen auch von Familie etc. wurden genutzt um Risiko zu bewerten
\end{itemize}
\item<2-> \alert<2>{Omitted Variable Bias:} Wichtige Daten werden nicht im Modell berücksichtigt
\begin{itemize}
\item Ein Programm das die Kündigung von Abos (zB Netflix) prognostiziert, aber neue Konkurrenzangebote nicht beachtet
\end{itemize}
\item<3-> \alert<3>{Represenation Bias:} Fehlende Diversität in den verfügbaren Daten
\begin{itemize}
\item Coded Gaze, Joy Buolamwini
\end{itemize}
\item<4-> \alert<4>{Aggregation Bias:} Spezifische Eigenschaften von Minderheiten gehen im gesamten Datensatz unter/Ableiten von Aussagen über Individuen aus Minderheit aus allgemeinem Datensatz
\begin{itemize}
\item Diskriminierungsklage gegen die Universität Berkeley
\end{itemize}
\end{itemize}
\end{frame}
\begin{frame}{Bias durch Design}
\begin{itemize}
\item Evaluation Bias: Ergebnis wird an unrealistischen Kriterien gemessen
\begin{itemize}
\item Bias in Gesichtserkennung fällt nicht auf, weil Benchmarkdatenset gebiast ist
\end{itemize}
\end{itemize}
\end{frame}
\begin{frame}{Bias durch Rückkopplung}
\begin{itemize}
\item Beispiel Profiling
\end{itemize}
\end{frame}
\section{Bias in iBorderCtrl (20min)}
\begin{frame}{Bias in iBorderCtrl}
\begin{itemize}
\item<1-> \alert<1>{Measurement Bias:} Schauspieler*innen statt echte Situationen, Stress beim Grenzübergang löst u.U. gleiche Symptome wie Lügen aus
\item<2-> \alert<2>{Omitted Variable Bias:} Lügen/nicht Lügen zeigt sich in nichterfassten Phänomenen
\item<3-> \alert<3>{Representation Bias:} fehlende Diversität race, gender, neurdiversity, disability, health, scars
\item<4-> \alert<4>{Aggregation Bias:} Reaktionen (z.B. Mikroexpressionen) nicht konsistent. Gleiches Verhalten kann unterschiedliches bedeuten.
\item<5-> \alert<5>{Overfitting:} 73 Prozent in Testdaten vs 93 Prozent in Trainingsdaten, das impliziert Overfitting ist wahrscheinlich
\end{itemize}
\end{frame}
\begin{frame}{Bias in iBorderCtrl}
\begin{itemize}
\item<1-> \alert<1>{Evaluation Bias:} Testbedingungen entsprechen nicht den Einsatzbedingungen, zB Licht, Diversität
\item<2-> \alert<2>{Bias durch Rückkopplung:} Wenn Einsatzdaten wieder eingespeist werden, dann: LD klassifiziert mehr Benachteiligte als lügend, Überprüfungsbeamt*in ebenso und gibt Daten zurück
\end{itemize}
\end{frame}
\begin{frame}{Testergebnisse}
\begin{itemize}
\item Anzahl verschiedener Personen in der Testdatenmenge: 1
\item Stichprobenstreuung: 24.37 (Truthful) / 34.29 (Deceptive)
\end{itemize}
\begin{figure}
\includegraphics[scale = 0.36]{Ergebnis_ibc}
\end{figure}
\end{frame}
\section{Ausblick und Diskussion(20min)}
\subsection{Politische Einordnung}
\begin{frame}{Politische Einordnung}
\begin{itemize}
\item Unfreiwillige Datenerhebung zur "Verbesserung" des Algorithmus
\item Entwicklung Ethischer Normen für KI (EU KI Standards, Gesellschaft für Informatik)
\end{itemize}
\end{frame}
\subsection{Wie und wofür forschen wir?}
\begin{frame}{Wie und wofür forschen wir?}
\begin{itemize}
\item Wissenschaft wird immer wieder instrumentalisiert
\item Wir brauchen mehr kognitive Diversität in Forschungseinrichtungen
\item Was ist dein wissenschaftlicher Standard und worauf gründet er?
\end{itemize}
\end{frame}
\end{document}
\begin{frame}{Quellen}
\begin{itemize}
\item Quelle 1 ..
\end{itemize}
\end{frame}