iborderctrl/IBC.tex
2021-09-11 17:43:17 +02:00

191 lines
No EOL
5.9 KiB
TeX

\documentclass{beamer}
\usetheme{DarkConsole}
\usepackage{graphicx}
\usepackage{caption}
\title{\texttt{Smart Borders? Test}}
\subtitle{Wie die EU versucht Grenzübergänge mit einem diskriminierenden KI-Lügendetektor zu regulieren.}
\author{verschiedene\footnote{\texttt{AG Link}}}
\begin{document}
\begin{frame}
\maketitle
\end{frame}
\begin{frame}{Inhalt}
\tableofcontents
\end{frame}
\section{Was ist iBorderCtrl? (15min)}
\subsection{Akteure und Organisationsstruktur}
\begin{frame}{Akteure und Organisationsstruktur}
\begin{itemize}
\item Horizon 2020 (auch Roborder)
\item Tresspass etc.
\item Finanzierung
\item Beteiligte Forschungseinrichtungen, beteiligte Unternehmen?
\item Aktueller Entwickllungsstand
\end{itemize}
\end{frame}
\subsection{Silent Talker}
\begin{frame}{Silent Talker}
\end{frame}
\begin{frame}
\begin{figure}
\includegraphics[scale = 0.8]{iborderctrl-avatar-300x268.jpg}
\caption*{Quelle: iborderctrl.eu}
\end{figure}
"The avatar is presented in a uniform to convey an air of authority." (K.Crockett et.al.)
\end{frame}
\subsection{Geschichte des Lügendetektor}
\begin{frame}{Geschichte des Lügendetektor}
\begin{itemize}
\item Polygraph (Genauigkeit: beinahe zufällig (Saxe, Ben-Shakhar, 1999)
\item Mirco Expressions etc.
\end{itemize}
Infos in: The politics of deceptive borders: biomarkers of deceit and the case of
iBorderCtrl
\end{frame}
\section{Grundlagen KI (15min)}
\subsection{Algorithmen, KI und Neuronale Netze}
\begin{frame}{Algorithmen, KI und Neuronale Netze}
\begin{itemize}
\item Algorithmus
\item KI / Machine Learning
\item Neuronale Netze und Deep Learning
\end{itemize}
\end{frame}
\begin{frame}{Aufbau der Datensätze}
\begin{itemize}
\item Supervised learning, Datenpaare
\item Training, Validation and Test Data
\end{itemize}
\end{frame}
\subsection{Overfitting}
\begin{frame}{Overfitting}
\begin{figure}
\includegraphics[scale = 0.4]{overfitting.png}
\caption*{Quelle: Sagar Sharma / Towards Data Science}
\end{figure}
\end{frame}
\section{Grenzen von KI / Grenzen und Risiken von KI (20min)}
\subsection{KI und Bias}
\begin{frame}{Arten von Bias}
Bias = Verzerrung
\vspace{0,5cm}
\begin{itemize}
\item Bias in den Daten
\item Bias durch Design des Algorithmus
\item Bias durch Rückkopplung im Gebrauch
\end{itemize}
\vspace{0,5cm}
Konsequenz: Diskriminierende Algorithmen (auch Gender Bias, Racial Bias, Neurodiversity Bias etc. genannt)
\end{frame}
\begin{frame}{Bias in den Daten}
\begin{itemize}
\item Measurement Bias: Wie werden bestimmte Eigenschaften gemessen/bestimmt?
\begin{itemize}
\item COMPAS: Verhaftungen auch von Familie etc. wurden genutzt um Risiko zu bewerten
\end{itemize}
\item Omitted Variable Bias: Wichtige Daten werden nicht im Modell berücksichtigt
\begin{itemize}
\item Ein Programm das die Kündigung von Abos (zB Netflix) prognostiziert, aber neue Konkurrenzangebote nicht beachtet
\end{itemize}
\item Represenation Bias: Fehlende Diversität in den verfügbaren Daten
\begin{itemize}
\item Coded Gaze, Joy Buolamwini
\end{itemize}
\item Aggregation Bias: Spezifische Eigenschaften von Minderheiten gehen im gesamten Datensatz unter/Ableiten von Aussagen über Individuen aus Minderheit aus allgemeinem Datensatz
\begin{itemize}
\item Diskriminierungsklage gegen die Universität Berkeley
\end{itemize}
\end{itemize}
\end{frame}
\begin{frame}{Bias durch Design}
\begin{itemize}
\item Evaluation Bias: Ergebnis wird an unrealistischen Kriterien gemessen
\begin{itemize}
\item Bias in Gesichtserkennung fällt nicht auf, weil Benchmarkdatenset gebiast ist
\end{itemize}
\end{itemize}
\end{frame}
\begin{frame}{Bias durch Rückkopplung}
\begin{itemize}
\item Beispiel Profiling
\end{itemize}
\end{frame}
\subsection{KI und Interpretierbarkeit}
\begin{frame}{Interpretierbarkeit}
\begin{itemize}
\item Was heißt interpretierbar?
\item Warum will mensch das?
\item Blackbox-Argument
\item Betriebsgeheimnis-Argument
\item Missklassifikationshack
\end{itemize}
\end{frame}
\section{Bias Bingo mit / Bias in iBorderCtrl (20min)(interaktiv?)}
\begin{frame}{Bias in iBorderCtrl}
\begin{itemize}
\item Measurement Bias: Schauspieler*innen statt echte Situationen, Stress beim Grenzübergang löst u.U. gleiche Symptome wie Lügen aus (?)
\item Omitted Variable Bias: Lügen zeigt sich in nichterfassten Phänomenen
\item Representation Bias: fehlende Diversität race, gender, neurdiversity, disability, health, scars
\item Aggregation Bias: s. representation bias, teilweiser Versuch der Gegensteuerung
\item Overfitting: 73 Prozent in Testdaten vs 93 Prozent in Trainingsdaten, das impliziert Overfitting ist wahrscheinlich
\end{itemize}
\end{frame}
\begin{frame}{Bias in iBorderCtrl}
\begin{itemize}
\item Evaluation Bias: Testbedingungen entsprechen nicht den Einsatzbedingungen, zB Licht, Diversität
\item Bias durch Rückkopplung: Wenn Einsatzdaten wieder eingespeist werden, dann: LD klassifiziert mehr Benachteiligte als lügend, Überprüfungsbeamt*in ebenso und gibt Daten zurück
\end{itemize}
\end{frame}
\begin{frame}{Testergebnisse}
\begin{itemize}
\item Anzahl verschiedener Personen in der Testdatenmenge: 1
\item Emprische Varianz der Tests:
\end{itemize}
\begin{figure}
\includegraphics[scale = 0.36]{Ergebnis_ibc}
\end{figure}
\end{frame}
\section{Ausblick und Diskussion(20min)}
\subsection{Politische Einordnung}
\begin{frame}{Politische Einordnung}
\begin{itemize}
\item Unfreiwillige Datenerhebung zur "Verbesserung" des Algorithmus
\item Entwicklung Ethischer Normen für KI (EU KI Standards, Gesellschaft für Informatik)
\end{itemize}
\end{frame}
\subsection{Wie und wofür forschen wir?}
\begin{frame}{Wie und wofür forschen wir?}
\begin{itemize}
\item Instrumentalisierung von Wissenschaft
\item Was ist mein wissenschaftlicher Standard und worauf gründet er?
\item Gibt es Ziele und Werte die nicht von der Wissenschaft vorgegeben werden, sondern die wir uns selbst setzen müssen?
\end{itemize}
\end{frame}
\end{document}
\begin{frame}{Quellen}
\begin{itemize}
\item Quelle 1 ..
\end{itemize}
\end{frame}