211 lines
6.5 KiB
TeX
211 lines
6.5 KiB
TeX
\documentclass{beamer}
|
|
|
|
\usetheme{DarkConsole}
|
|
\usepackage{graphicx}
|
|
\usepackage{caption}
|
|
|
|
\title{\texttt{Smart Borders?}}
|
|
\subtitle{Wie die EU versucht Grenzübergänge mit einem diskriminierenden KI-Lügendetektor zu regulieren.}
|
|
\author{verschiedene\footnote{\texttt{AG Link}}}
|
|
|
|
\begin{document}
|
|
|
|
\begin{frame}
|
|
\maketitle
|
|
\end{frame}
|
|
|
|
\begin{frame}{Inhalt}
|
|
\tableofcontents
|
|
\end{frame}
|
|
|
|
\section{Was ist iBorderCtrl? (15min)}
|
|
\subsection{Akteure und Organisationsstruktur}
|
|
\begin{frame}{Akteure und Organisationsstruktur}
|
|
\begin{itemize}
|
|
\item Horizon 2020 (auch Roborder)
|
|
\item Tresspass etc.
|
|
\item Finanzierung
|
|
\item Beteiligte Forschungseinrichtungen, beteiligte Unternehmen?
|
|
\item Aktueller Entwickllungsstand
|
|
\end{itemize}
|
|
\end{frame}
|
|
\subsection{Silent Talker}
|
|
\begin{frame}{Silent Talker}
|
|
\end{frame}
|
|
\begin{frame}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.8]{iborderctrl-avatar-300x268.jpg}
|
|
\caption*{Quelle: iborderctrl.eu}
|
|
\end{figure}
|
|
"The avatar is presented in a uniform to convey an air of authority." (K.Crockett et.al.)
|
|
\end{frame}
|
|
\subsection{Geschichte des Lügendetektor}
|
|
|
|
\begin{frame}{Geschichte des Lügendetektor}
|
|
\begin{itemize}
|
|
\item Polygraph (Genauigkeit: beinahe zufällig (Saxe, Ben-Shakhar, 1999)
|
|
\item Mirco Expressions etc.
|
|
\end{itemize}
|
|
Infos in: The politics of deceptive borders: biomarkers of deceit and the case of
|
|
iBorderCtrl
|
|
\end{frame}
|
|
|
|
\section{Grundlagen KI (15min)}
|
|
\subsection{Algorithmen, KI und Neuronale Netze}
|
|
\begin{frame}{Algorithmen, KI und Neuronale Netze}
|
|
\begin{itemize}
|
|
\item Algorithmus
|
|
\item KI / Machine Learning
|
|
\item Neuronale Netze und Deep Learning
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Aufbau der Datensätze}
|
|
\begin{itemize}
|
|
\item Supervised learning -> Datenpaare
|
|
\item Training, Validation and Test Data
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\subsection{Overfitting}
|
|
\begin{frame}{Overfitting}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.4]{overfitting.png}
|
|
\caption*{Quelle: Sagar Sharma / Towards Data Science}
|
|
\end{figure}
|
|
\end{frame}
|
|
|
|
|
|
\section{Grenzen von KI / Grenzen und Risiken von KI (20min)}
|
|
\subsection{Beispiele diskriminierender KI}
|
|
\subsection{KI und Bias}
|
|
|
|
\begin{frame}{Beispiele diskriminierender KI}
|
|
\begin{itemize}
|
|
\item COMPAS - Risikoabsch\"{a}tzung Gefangener in Florida
|
|
\begin{itemize}
|
|
\item Schwarze Gefangene wurden doppelt so häufig falsch als gewaltt\"{a}tig klassifiziert
|
|
\end{itemize}
|
|
\item Vermittlung von Stellenanzeigen im MINT-Bereich
|
|
\begin{itemize}
|
|
\item Stellenanzeigen wurden häufiger M\"{a}nnern (cis?) angezeigt.
|
|
\end{itemize}
|
|
\item Einstellungsverfahren (konkreter Fall amazon?)
|
|
\item Gesichtserkennung, Stimmerkennung, etc. (konkrete Fälle)
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
|
|
\begin{frame}{Arten von Bias}
|
|
Bias = Verzerrung
|
|
\begin{itemize}
|
|
\item Bias in den Daten
|
|
\item Bias durch Design des Algorithmus
|
|
\item Bias durch R\"{u}ckkopplung im Gebrauch
|
|
\end{itemize}
|
|
Konsequenz: Diskriminierende Algorithmen (auch Gender Bias, Racial Bias, Neurodiversity Bias etc. genannt)
|
|
\end{frame}
|
|
|
|
|
|
\begin{frame}{Bias in den Daten}
|
|
\begin{itemize}
|
|
\item Wie werden bestimmte Eigenschaften gemessen/bestimmt? (Measurement Bias)
|
|
\begin{itemize}
|
|
\item COMPAS: Verhaftungen auch von Familie etc. wurden genutzt um Risiko zu bewerten
|
|
\end{itemize}
|
|
\item Wichtige Daten werden nicht im Modell berücksichtigt (Omitted Variable Bias)
|
|
\begin{itemize}
|
|
\item Beispiel
|
|
\end{itemize}
|
|
\item Fehlende Diversit\"{a}t in den Verf\"{u}gbaren Daten (Represenation Bias)
|
|
\begin{itemize}
|
|
\item Beispiel
|
|
\end{itemize}
|
|
\item Spezifische Eigenschaften von Minderheiten gehen im gesamten Datensatz unter/Ableiten von Aussagen \"{u}ber Individuen aus Minderheit aus allgemeinem Datensatz (Aggregation Bias)
|
|
\begin{itemize}
|
|
\item Beispiel
|
|
\end{itemize}
|
|
\item Ungleiche Datenmenge verschiedener Untergruppen (Sampling Bias)
|
|
\begin{itemize}
|
|
\item Beispiel
|
|
\end{itemize}
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Bias in den Daten}
|
|
\begin{itemize}
|
|
\item Historical Bias (Erklärung, Beispiel)
|
|
\item Population Bias (Erklärung, Beispiel)
|
|
\item etc.
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Bias durch Design}
|
|
\begin{itemize}
|
|
\item Algorithmischer Bias (Erklärung, Beispiel)
|
|
\item Evaluations Bias (Erklärung, Beispiel)
|
|
\item etc.
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Bias durch R\"{u}ckkopplung}
|
|
Beispiel (Profiling?)
|
|
\end{frame}
|
|
|
|
\subsection{KI und Interpretierbarkeit}
|
|
|
|
\begin{frame}{Interpretierbarkeit}
|
|
\begin{itemize}
|
|
\item Was heißt interpretierbar?
|
|
\item Warum will mensch das?
|
|
\item Blackbox-Argument
|
|
\item Betriebsgeheminis-Argument
|
|
\item Beispiel: Hack zum Missklassifizieren
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\section{Bias Bingo mit / Bias in iBorderCtrl (20min)(interaktiv?)}
|
|
|
|
\begin{frame}{Bias in iBorderCtrl}
|
|
\begin{itemize}
|
|
\item Measurement Bias: Schauspieler*innen statt echte Situationen
|
|
\item Omitted Variable Bias: Nervosität durch Stress beim Grenzübergang
|
|
\item Representation Bias: fehlende Diversität race, gender, neurdiversity, disability, health, scars
|
|
\item Aggregation Bias: s. representation bias, teilweiser Versuch der Gegensteuerung
|
|
\item Sampling Bias: ungleiche Datenmengen
|
|
\item Overfitting: 73 Prozent in Testdaten vs 93 Prozent in Trainingsdaten, das impliziert Overfitting ist wahrscheinlich
|
|
\item Historical Bias: höhere Wahrscheinlichkeit zB des Drogenschmuggels bestimmter Gruppen (trifft erst bei Benutzung zu, weil Testdaten zu klein)
|
|
\item Algorythmischer Bias: zu wenig Einblick
|
|
\item Evaluations Bias: Testbedingungen entsprechen nicht den Einsatzbedingungen, zB Licht, Diversität
|
|
\item Bias durch Rückkopplung:
|
|
\end{itemize}
|
|
\end{frame}
|
|
|
|
\begin{frame}{Testergebnisse}
|
|
\begin{itemize}
|
|
\item Anzahl verschiedener Personen in der Testdatenmenge: 1
|
|
\item Emprische Varianz der Tests:
|
|
\end{itemize}
|
|
\begin{figure}
|
|
\includegraphics[scale = 0.36]{Ergebnis_ibc}
|
|
\end{figure}
|
|
\end{frame}
|
|
\section{Ausblick und Diskussion(20min)}
|
|
\subsection{Politische Einordnung}
|
|
\begin{frame}{Politische Einordnung}
|
|
\begin{itemize}
|
|
\item Unfreiwillige Datenerhebung zur "Verbesserung" des Algorithmus
|
|
\item Entwicklung Ethischer Normen für KI (EU KI Standards, Gesellschaft für Informatik, The Ethical Algorithm von Kearns, Roth?)
|
|
\end{itemize}
|
|
\end{frame}
|
|
\subsection{Wie und wofür forschen wir?}
|
|
\begin{frame}{Wie und wofür forschen wir?}
|
|
\begin{itemize}
|
|
\item Instrumentalisierung von Wissenschaft
|
|
\item https://youtu.be/f9WkKKZXvgA?t=3411
|
|
\item Was ist mein wissenschaftlicher Standard und worauf gründet er?
|
|
\item Gibt es Ziele und Werte die nicht von der Wissenschaft vorgegen werden, sondern die wir uns selbst setzen müssen?
|
|
\item Hinweis auf Transparenzinitiative der Senatorin Johanna
|
|
\end{itemize}
|
|
\end{frame}
|
|
\end{document}
|