iborderctrl/IBC.tex
Johanna Weinberger cd50ac6b56 vorschlag
2021-08-11 14:19:22 +02:00

196 lines
5.3 KiB
TeX

\documentclass{beamer}
\usetheme{DarkConsole}
\usepackage{graphicx}
\usepackage{caption}
\title{\texttt{iBorderCtrl} /exit iBorderCtrl}
\subtitle{KI im Kontext von Sicherheitspolitik/ \\
Wie die EU versucht rassistische Migrationspolitik durch einen pseudowissenschaftlichen KI-Lügendetektor zu legitimieren}
\author{verschiedene\footnote{\texttt{AG Link}}}
\begin{document}
\begin{frame}
\maketitle
\end{frame}
\begin{frame}{Inhalt}
\tableofcontents
\end{frame}
\section{Was ist iBorderCtrl? (15min)}
\subsection{Akteure und Organisationsstruktur}
\begin{frame}{Akteure und Organisationsstruktur}
\begin{itemize}
\item Horizon 2020, (auch Roborder)
\item Tresspass etc.
\item Finanzierung
\item beteiligte Unternehmen? Beteiligte Universitäten
\item Aktueller Entwickllungsstand
\end{itemize}
\end{frame}
\subsection{Silent Talker}
\begin{frame}{Silent Talker}
\end{frame}
\begin{frame}
\begin{figure}
\includegraphics[scale = 0.8]{iborderctrl-avatar-300x268.jpg}
\caption*{Quelle: iborderctrl.eu}
\end{figure}
"The avatar is presented in a uniform to convey an air of authority." (K.Crockett et.al.)
\end{frame}
\subsection{Geschichte des Lügendetektor}
\begin{frame}{Geschichte des Lügendetektor}
\begin{itemize}
\item Polygraph (Genauigkeit: beinahe zufällig (Saxe , Ben-Shakhar, 1999)
\item Mirco Expression etc.
\end{itemize}
Infos in : The politics of deceptive borders: biomarkers of deceit and the case of
iBorderCtrl
\end{frame}
\section{Grundlagen KI (15min)}
\subsection{Begriffsdefinitionen}
\begin{frame}{Begriffsdefinitionen}
\begin{itemize}
\item Algorithmus
\item KI / Machine Learning
\item Neuronale Netze und Deep Learning
\end{itemize}
\end{frame}
\begin{frame}{Aufbau der Datensätze}
\begin{itemize}
\item supervised learning -> Datenpaare
\item Training, Validation and Test Data
\end{itemize}
\end{frame}
\subsection{overfitting}
\begin{frame}{Overfitting}
\begin{figure}
\includegraphics[scale = 0.4]{overfitting.png}
\caption*{Quelle: Sagar Sharma / Towards Data Science}
\end{figure}
\end{frame}
\section{Grenzen von KI / Grenzen und Risiken von KI (20min)}
\subsection{Beispiele Diskriminierender KI}
\subsection{KI und Bias}
\begin{frame}{Beispiele diskriminierender KI}
\begin{itemize}
\item COMPAS - Risikoabsch\"{a}tzung Gefangener in Florida
\begin{itemize}
\item Schwarze Gefangene wurden doppelt so häufig falsch als gewaltt\"{a}tig klassifiziert
\end{itemize}
\item Vermittlung von Stellenanzeigen im MINT-Bereich
\begin{itemize}
\item Stellenanzeigen wurden häufiger M\"{a}nnern (cis?) angezeigt.
\end{itemize}
\item Einstellungsverfahren (konkreter Fall amazon?)
\item Gesichtserkennung, Stimmerkennung, etc. (konkrete Fälle)
\end{itemize}
\end{frame}
\begin{frame}{Arten von Bias}
Bias = Verzerrung
\begin{itemize}
\item Bias in den Daten
\item Bias durch Design des Algorithmus
\item Bias durch R\"{u}ckkopplung im Gebrauch
\end{itemize}
Konsequenz: Diskriminierende Algorithmen (auch Gender Bias, Racial Bias, Neurodiversity Bias etc. genannt)
\end{frame}
\begin{frame}{Bias in den Daten}
\begin{itemize}
\item Wie werden bestimmte Eigenschaften gemessen/bestimmt? (Measurement Bias)
\begin{itemize}
\item COMPAS: Verhaftungen auch von Familie etc. wurden genutzt um Risiko zu bewerten
\end{itemize}
\item wichtige Daten werden nicht im Modell berücksichtigt (Omitted Variable Bias)
\begin{itemize}
\item Beispiel
\end{itemize}
\item fehlende Diversit\"{a}t in den Verf\"{u}gbaren Daten (Represenation Bias)
\begin{itemize}
\item Beispiel
\end{itemize}
\item Spezifische Eigenschaften von Minderheiten gehen im gesamten Datensatz unter/Ableiten von Aussagen \"{u}ber Individuen aus Minderheit aus allgemeinem Datensatz (Aggregation Bias)
\begin{itemize}
\item Beispiel
\end{itemize}
\item Ungleiche Datenmenge verschiedener Untergruppen (Sampling Bias)
\begin{itemize}
\item Beispiel
\end{itemize}
\end{itemize}
\end{frame}
\begin{frame}{Bias in den Daten}
\begin{itemize}
\item Historical Bias (Erklärung, Beispiel)
\item Population Bias (Erklärung, Beispiel)
\item etc.
\end{itemize}
\end{frame}
\begin{frame}{Bias durch Design}
\begin{itemize}
\item Algorithmischer Bias (Erklärung, Beispiel)
\item Evaluations Bias (Erklärung, Beispiel)
\item etc.
\end{itemize}
\end{frame}
\begin{frame}{Bias durch R\"{u}ckkopplung}
Beispiel (Profiling? )
\end{frame}
\subsection{KI und Interpretierbarkeit}
\begin{frame}{Interpretierbarkeit}
\begin{itemize}
\item Was heißt interpretierbar
\item Warum will mensch das
\item Blackbox-Argument
\item Betriebsgeheminis
\item Beispiel: Hack zum Missklassifizieren
\end{itemize}
\end{frame}
\section{iBorderCtrl / Bias Bingo mit iBorderCtrl (20min)(interaktiv?)}
\begin{frame}{Bias in iBorderCtrl}
\end{frame}
\begin{frame}{Testerbenisse}
\begin{itemize}
\item Anzahl verschiedener Personen in der Testdatenmenge : 1
\item Emprische Varianz der Tests:
\end{itemize}
\begin{figure}
\includegraphics[scale = 0.36]{Ergebnis_ibc}
\end{figure}
\end{frame}
\section{Ausblick/ Diskussion(20min)}
\subsection{politische Einordnung}
\begin{frame}{politische Einordnung}
\begin{itemize}
\item unfreiwillige Datenerhebung zur "Verbesserung" des Algorithmus
\item Entwicklung Ethischer Normen für KI
\end{itemize}
\end{frame}
\subsection{Wie und wofür forschen wir? /Wissenschaft und Ethik}
\begin{frame}
\end{frame}
\end{document}