vorschlag

This commit is contained in:
Johanna Weinberger 2021-08-11 14:19:22 +02:00
parent 881a09f3d7
commit cd50ac6b56
3 changed files with 104 additions and 75 deletions

176
IBC.tex
View file

@ -1,26 +1,12 @@
%%
%% This is file `example_DarkConsole.tex',
%% generated with the docstrip utility.
%%
%% The original source files were:
%%
%% examples_kmbeamer.dtx (with options: `DarkConsole')
%% Copyright (c) 2011-2013 Kazuki Maeda <kmaeda@users.sourceforge.jp>
%%
%% Distributable under the MIT License:
%% http://www.opensource.org/licenses/mit-license.php
%%
%%% もし pdfTeX や LuaTeX を使うなら dvipdfmx オプションを外す.
% \documentclass[dvipdfmx]{beamer}
% Modified by LianTze Lim to work with fontspec/xelatex
\documentclass{beamer}
\usetheme{DarkConsole}
\usepackage{graphicx}
\usepackage{caption}
\title{\texttt{exit iBorderCtrl}}
\subtitle{KI im Kontext von Sicherheitspolitik}
\title{\texttt{iBorderCtrl} /exit iBorderCtrl}
\subtitle{KI im Kontext von Sicherheitspolitik/ \\
Wie die EU versucht rassistische Migrationspolitik durch einen pseudowissenschaftlichen KI-Lügendetektor zu legitimieren}
\author{verschiedene\footnote{\texttt{AG Link}}}
\begin{document}
@ -33,8 +19,20 @@
\tableofcontents
\end{frame}
\section{Was ist iBorderCtrl?}
\section{Was ist iBorderCtrl? (15min)}
\subsection{Akteure und Organisationsstruktur}
\begin{frame}{Akteure und Organisationsstruktur}
\begin{itemize}
\item Horizon 2020, (auch Roborder)
\item Tresspass etc.
\item Finanzierung
\item beteiligte Unternehmen? Beteiligte Universitäten
\item Aktueller Entwickllungsstand
\end{itemize}
\end{frame}
\subsection{Silent Talker}
\begin{frame}{Silent Talker}
\end{frame}
\begin{frame}
\begin{figure}
\includegraphics[scale = 0.8]{iborderctrl-avatar-300x268.jpg}
@ -42,37 +40,49 @@
\end{figure}
"The avatar is presented in a uniform to convey an air of authority." (K.Crockett et.al.)
\end{frame}
\subsection{Geschichte des Lügendetektor}
\section{Grundlagen DNN}
\begin{frame}{something}
something
\pause
\begin{enumerate}
\item 1\pause
\item 2\pause
\item 3
\end{enumerate}
\pause
\begin{itemize}
\item 4\pause
\item 5\pause
\item 6
\end{itemize}
\begin{frame}{Geschichte des Lügendetektor}
\begin{itemize}
\item Polygraph (Genauigkeit: beinahe zufällig (Saxe , Ben-Shakhar, 1999)
\item Mirco Expression etc.
\end{itemize}
Infos in : The politics of deceptive borders: biomarkers of deceit and the case of
iBorderCtrl
\end{frame}
\begin{frame}{Overfitting}
\section{Grundlagen KI (15min)}
\subsection{Begriffsdefinitionen}
\begin{frame}{Begriffsdefinitionen}
\begin{itemize}
\item Algorithmus
\item KI / Machine Learning
\item Neuronale Netze und Deep Learning
\end{itemize}
\end{frame}
\begin{frame}{Aufbau der Datensätze}
\begin{itemize}
\item supervised learning -> Datenpaare
\item Training, Validation and Test Data
\end{itemize}
\end{frame}
\subsection{overfitting}
\begin{frame}{Overfitting}
\begin{figure}
\includegraphics[scale = 0.4]{overfitting.png}
\caption*{Quelle: Sagar Sharma / Towards Data Science}
\end{figure}
\end{frame}
\section{Bias und KI}
\section{Grenzen von KI / Grenzen und Risiken von KI (20min)}
\subsection{Beispiele Diskriminierender KI}
\subsection{KI und Bias}
\begin{frame}{Beispiele diskriminierender KI}
\begin{itemize}
\item COMPAS - Risikoabsch\"{a}tzung Gefangener in Florida
@ -83,74 +93,84 @@
\begin{itemize}
\item Stellenanzeigen wurden häufiger M\"{a}nnern (cis?) angezeigt.
\end{itemize}
\item Einstellungsverfahren
\item Gesichtserkennung, Stimmerkennung, etc.
\item Einstellungsverfahren (konkreter Fall amazon?)
\item Gesichtserkennung, Stimmerkennung, etc. (konkrete Fälle)
\end{itemize}
\end{frame}
\begin{frame}{Arten von Bias}
Bias = Verzerrung
\begin{itemize}
\item Bias in den Daten
\item Bias durch Design des Algorithmus
\item Bias durch R\"{u}ckkopplung im Gebrauch
\end{itemize}
Konsequenz: Diskriminierende Algorithmen (auch Gender Bias, Racial Bias, Neurodiversity Bias etc. genannt)
\end{frame}
\begin{frame}{Bias in den Daten}
\begin{itemize}
\item Measurement Bias
\item Wie werden bestimmte Eigenschaften gemessen/bestimmt? (Measurement Bias)
\begin{itemize}
\item Wie werden bestimmte Eigenschaften gemessen/bestimmt?
\item COMPAS: Verhaftungen auch von Familie etc. wurden genutzt um Risiko zu bewerten
\item COMPAS: Verhaftungen auch von Familie etc. wurden genutzt um Risiko zu bewerten
\end{itemize}
\item Omitted Variable Bias
\item wichtige Daten werden nicht im Modell berücksichtigt (Omitted Variable Bias)
\begin{itemize}
\item Wichtige Daten werden nicht im Modell berücksichtigt
\item Beispiel
\end{itemize}
\item Represenation Bias
\item fehlende Diversit\"{a}t in den Verf\"{u}gbaren Daten (Represenation Bias)
\begin{itemize}
\item Fehlende DIversit\"{a}t in den Verf\"{u}gbaren Daten
\item Beispiel
\end{itemize}
\item Aggregation Bias
\item Spezifische Eigenschaften von Minderheiten gehen im gesamten Datensatz unter/Ableiten von Aussagen \"{u}ber Individuen aus Minderheit aus allgemeinem Datensatz (Aggregation Bias)
\begin{itemize}
\item Ableiten von Aussagen \"{u}ber Individuen aus Minderheit aus allgemeinem Datensatz
\item Beispiel
\end{itemize}
\item Sampling Bias
\item Ungleiche Datenmenge verschiedener Untergruppen (Sampling Bias)
\begin{itemize}
\item Ungleiche Datenmenge verschiedener Untergruppen
\item Beispiel
\end{itemize}
\end{itemize}
\end{frame}
\begin{frame}{Aggregation Bias und Sampling Bias}
\end{frame}
\begin{frame}{Bias in den Daten}
\begin{itemize}
\item Historical Bias
\item Population Bias
\item Historical Bias (Erklärung, Beispiel)
\item Population Bias (Erklärung, Beispiel)
\item etc.
\end{itemize}
\end{frame}
\begin{frame}{Bias durch Design}
\begin{itemize}
\item Algorithmischer Bias
\item Evaluations Bias
\item Algorithmischer Bias (Erklärung, Beispiel)
\item Evaluations Bias (Erklärung, Beispiel)
\item etc.
\end{itemize}
\end{frame}
\begin{frame}{Bias durch R\"{u}ckkopplung}
Beispiel (Profiling? )
\end{frame}
\subsection{KI und Interpretierbarkeit}
\begin{frame}{Interpretierbarkeit}
\begin{itemize}
\item Was heißt interpretierbar
\item Warum will mensch das
\item Blackbox-Argument
\item Betriebsgeheminis
\item Beispiel: Hack zum Missklassifizieren
\end{itemize}
\end{frame}
\section{Interpretierbarkeit und KI}
\begin{frame}{Was heisst interpretierbar?}
\end{frame}
\begin{frame}{Wieso will mensch Interpretierbarkeit?}
\end{frame}
\section{iBorderCtrl - Forschungsergebnisse}
\begin{frame}{Aufbau iBorderCtrl}
\end{frame}
\begin{frame}{Verwendete Daten und Ergebnisse}
\section{iBorderCtrl / Bias Bingo mit iBorderCtrl (20min)(interaktiv?)}
\begin{frame}{Bias in iBorderCtrl}
\end{frame}
\begin{frame}{Testerbenisse}
@ -162,7 +182,15 @@
\includegraphics[scale = 0.36]{Ergebnis_ibc}
\end{figure}
\end{frame}
\section{Ausblick/ Diskussion(20min)}
\subsection{politische Einordnung}
\begin{frame}{politische Einordnung}
\begin{itemize}
\item unfreiwillige Datenerhebung zur "Verbesserung" des Algorithmus
\item Entwicklung Ethischer Normen für KI
\end{itemize}
\end{frame}
\subsection{Wie und wofür forschen wir? /Wissenschaft und Ethik}
\begin{frame}
\end{frame}
\end{document}
%\endinput
%%
%% End of file `example_DarkConsole.tex'.

View file

@ -16,6 +16,7 @@
\setbeamercolor*{title}{fg=chartreuse}
\setbeamercolor*{frametitle}{fg=chartreuse}
\setbeamercolor*{footline}{fg =chartreuse}
\setbeamercolor*{itemize item}{fg=chartreuse}
\setbeamercolor*{enumerate item}{fg=chartreuse}

View file

@ -20,7 +20,7 @@
\setbeamerfont{title}{size=\normalsize,series=\bfseries}
\setbeamerfont{frametitle}{size=\normalsize,series=\bfseries}
\setbeamerfont{block title}{size=\normalsize,series=\bfseries}
\setbeamerfont{footline}{size*={5}{\z@},series=\bfseries}
\setbeamerfont{footline}{size*={8}{\z@},series=\bfseries}
\setbeamertemplate{itemize item}{*}
\setbeamertemplate{itemize subitem}{*}