196 lines
5.3 KiB
TeX
196 lines
5.3 KiB
TeX
\documentclass{beamer}
|
|
|
|
\usetheme{DarkConsole}
|
|
\usepackage{graphicx}
|
|
\usepackage{caption}
|
|
|
|
\title{\texttt{iBorderCtrl} /exit iBorderCtrl}
|
|
\subtitle{KI im Kontext von Sicherheitspolitik/ \\
|
|
Wie die EU versucht rassistische Migrationspolitik durch einen pseudowissenschaftlichen KI-Lügendetektor zu legitimieren}
|
|
\author{verschiedene\footnote{\texttt{AG Link}}}
|
|
|
|
\begin{document}
|
|
|
|
\begin{frame}
|
|
\maketitle
|
|
\end{frame}
|
|
|
|
\begin{frame}{Inhalt}
|
|
\tableofcontents
|
|
\end{frame}
|
|
|
|
\section{Was ist iBorderCtrl? (15min)}
|
|
\subsection{Akteure und Organisationsstruktur}
|
|
\begin{frame}{Akteure und Organisationsstruktur}
|
|
\begin{itemize}
|
|
\item Horizon 2020, (auch Roborder)
|
|
\item Tresspass etc.
|
|
\item Finanzierung
|
|
\item beteiligte Unternehmen? Beteiligte Universitäten
|
|
\item Aktueller Entwickllungsstand
|
|
\end{itemize}
|
|
\end{frame}
|
|
\subsection{Silent Talker}
|
|
\begin{frame}{Silent Talker}
|
|
\end{frame}
|
|
\begin{frame}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.8]{iborderctrl-avatar-300x268.jpg}
|
|
\caption*{Quelle: iborderctrl.eu}
|
|
\end{figure}
|
|
"The avatar is presented in a uniform to convey an air of authority." (K.Crockett et.al.)
|
|
\end{frame}
|
|
\subsection{Geschichte des Lügendetektor}
|
|
|
|
\begin{frame}{Geschichte des Lügendetektor}
|
|
\begin{itemize}
|
|
\item Polygraph (Genauigkeit: beinahe zufällig (Saxe , Ben-Shakhar, 1999)
|
|
\item Mirco Expression etc.
|
|
\end{itemize}
|
|
Infos in : The politics of deceptive borders: biomarkers of deceit and the case of
|
|
iBorderCtrl
|
|
\end{frame}
|
|
|
|
|
|
|
|
\section{Grundlagen KI (15min)}
|
|
\subsection{Begriffsdefinitionen}
|
|
\begin{frame}{Begriffsdefinitionen}
|
|
\begin{itemize}
|
|
\item Algorithmus
|
|
\item KI / Machine Learning
|
|
\item Neuronale Netze und Deep Learning
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Aufbau der Datensätze}
|
|
\begin{itemize}
|
|
\item supervised learning -> Datenpaare
|
|
\item Training, Validation and Test Data
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\subsection{overfitting}
|
|
\begin{frame}{Overfitting}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.4]{overfitting.png}
|
|
\caption*{Quelle: Sagar Sharma / Towards Data Science}
|
|
\end{figure}
|
|
\end{frame}
|
|
|
|
|
|
\section{Grenzen von KI / Grenzen und Risiken von KI (20min)}
|
|
\subsection{Beispiele Diskriminierender KI}
|
|
\subsection{KI und Bias}
|
|
|
|
\begin{frame}{Beispiele diskriminierender KI}
|
|
\begin{itemize}
|
|
\item COMPAS - Risikoabsch\"{a}tzung Gefangener in Florida
|
|
\begin{itemize}
|
|
\item Schwarze Gefangene wurden doppelt so häufig falsch als gewaltt\"{a}tig klassifiziert
|
|
\end{itemize}
|
|
\item Vermittlung von Stellenanzeigen im MINT-Bereich
|
|
\begin{itemize}
|
|
\item Stellenanzeigen wurden häufiger M\"{a}nnern (cis?) angezeigt.
|
|
\end{itemize}
|
|
\item Einstellungsverfahren (konkreter Fall amazon?)
|
|
\item Gesichtserkennung, Stimmerkennung, etc. (konkrete Fälle)
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
|
|
\begin{frame}{Arten von Bias}
|
|
Bias = Verzerrung
|
|
\begin{itemize}
|
|
\item Bias in den Daten
|
|
\item Bias durch Design des Algorithmus
|
|
\item Bias durch R\"{u}ckkopplung im Gebrauch
|
|
\end{itemize}
|
|
Konsequenz: Diskriminierende Algorithmen (auch Gender Bias, Racial Bias, Neurodiversity Bias etc. genannt)
|
|
\end{frame}
|
|
|
|
|
|
\begin{frame}{Bias in den Daten}
|
|
\begin{itemize}
|
|
\item Wie werden bestimmte Eigenschaften gemessen/bestimmt? (Measurement Bias)
|
|
\begin{itemize}
|
|
\item COMPAS: Verhaftungen auch von Familie etc. wurden genutzt um Risiko zu bewerten
|
|
\end{itemize}
|
|
\item wichtige Daten werden nicht im Modell berücksichtigt (Omitted Variable Bias)
|
|
\begin{itemize}
|
|
\item Beispiel
|
|
\end{itemize}
|
|
\item fehlende Diversit\"{a}t in den Verf\"{u}gbaren Daten (Represenation Bias)
|
|
\begin{itemize}
|
|
\item Beispiel
|
|
\end{itemize}
|
|
\item Spezifische Eigenschaften von Minderheiten gehen im gesamten Datensatz unter/Ableiten von Aussagen \"{u}ber Individuen aus Minderheit aus allgemeinem Datensatz (Aggregation Bias)
|
|
\begin{itemize}
|
|
\item Beispiel
|
|
\end{itemize}
|
|
\item Ungleiche Datenmenge verschiedener Untergruppen (Sampling Bias)
|
|
\begin{itemize}
|
|
\item Beispiel
|
|
\end{itemize}
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Bias in den Daten}
|
|
\begin{itemize}
|
|
\item Historical Bias (Erklärung, Beispiel)
|
|
\item Population Bias (Erklärung, Beispiel)
|
|
\item etc.
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Bias durch Design}
|
|
\begin{itemize}
|
|
\item Algorithmischer Bias (Erklärung, Beispiel)
|
|
\item Evaluations Bias (Erklärung, Beispiel)
|
|
\item etc.
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Bias durch R\"{u}ckkopplung}
|
|
Beispiel (Profiling? )
|
|
\end{frame}
|
|
|
|
\subsection{KI und Interpretierbarkeit}
|
|
|
|
\begin{frame}{Interpretierbarkeit}
|
|
\begin{itemize}
|
|
\item Was heißt interpretierbar
|
|
\item Warum will mensch das
|
|
\item Blackbox-Argument
|
|
\item Betriebsgeheminis
|
|
\item Beispiel: Hack zum Missklassifizieren
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
|
|
\section{iBorderCtrl / Bias Bingo mit iBorderCtrl (20min)(interaktiv?)}
|
|
|
|
\begin{frame}{Bias in iBorderCtrl}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Testerbenisse}
|
|
\begin{itemize}
|
|
\item Anzahl verschiedener Personen in der Testdatenmenge : 1
|
|
\item Emprische Varianz der Tests:
|
|
\end{itemize}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.36]{Ergebnis_ibc}
|
|
\end{figure}
|
|
\end{frame}
|
|
\section{Ausblick/ Diskussion(20min)}
|
|
\subsection{politische Einordnung}
|
|
\begin{frame}{politische Einordnung}
|
|
\begin{itemize}
|
|
\item unfreiwillige Datenerhebung zur "Verbesserung" des Algorithmus
|
|
\item Entwicklung Ethischer Normen für KI
|
|
\end{itemize}
|
|
\end{frame}
|
|
\subsection{Wie und wofür forschen wir? /Wissenschaft und Ethik}
|
|
\begin{frame}
|
|
\end{frame}
|
|
\end{document}
|