Kunst von Algorithmen basierend auf: Box Fitting Image, j.tarbell, May, 2004, Albuquerque, New Mexico, complexification.net

ÖFIT-Konferenz 2018
(Un)ergründlich. Künstliche Intelligenz als Ordnungsstifterin

 
 

Zusammenfassung der Veranstaltung vom 18. Oktober 2018
im silent green Kulturquartier, Gerichtstraße 35, 13347 Berlin

 

Am 18. Oktober fand die ÖFIT Konferenz 2018 im stimmungsvollen Ambiente des silent green Kulturquartiers im Wedding statt. Unter dem Titel „(Un)ergründlich: Künstliche Intelligenz als Ordnungsstifterin" diskutierten Expert:innen aus Wissenschaft und Praxis darüber, in welcher Art und Weise Künstliche Intelligenz Gesellschaft zu ordnen vermag und welche Bedeutung intelligente Maschinen für die Menschen haben.

Digitale Technologien sind im Alltag präsent wie nie zuvor. Im Zusammenhang mit der Technikgestaltung von nicht-trivialen „intelligenten" Maschinen stellen sich zahlreiche Fragen. Was kann künstliche Intelligenz? Was hat sich durch die Präsenz von KI verändert? Wie gelangt ein KI-System zu Entscheidungen? Welche ethischen Fragen stellen sich damit? Welche gesellschaftlichen und sozialen Implikationen sind vorausschauend bei der Regulierung von KI zu berücksichtigen?

In der Bevölkerung kristallisiert sich eine zunehmend positive Haltung gegenüber Künstlicher Intelligenz heraus, während in Expertenkreise weiterhin Uneinigkeit über die Richtung und Geschwindigkeit der Entwicklung besteht. Die Diskussionen im Rahmen unserer Veranstaltungen um KI zeigen aufs Neue, dass Konflikte um Technologien gesellschaftliche Konflikte widerspiegeln. Herausforderungen wie Chancengleichheit, soziale Verträglichkeit und die Wahrung von Grundrechten bleiben gesellschaftlich zu klären. Künstliche Intelligenz ist dabei zunächst ein Sammelbegriff, der so verschiedene Dinge wie maschinelles Lernen, neuronale Netze, Entscheidungslogik, Musterkennung und Verifikationssysteme unter ein gemeinsames begriffliches Dach stellt. Der Ruf nach mehr Trennschärfe in der Argumentation, die für eine Beurteilung der Auswirkungen dieser Technologien notwendig sei, begleitete dabei die Vorträge und Diskussionen über den gesamten Tag.

 
 

Programm

9:30 Einlass und Registrierung

  • Prof. Dr. Peter Parycek , Kompetenzzentrum Öffentliche IT
  • Dr. Karoline Krenn , Kompetenzzentrum Öffentliche IT

Session I fragt danach, was in unserer Gesellschaft Ordnung schafft: Religion, Staat oder Technologie? Wie kann Künstliche Intelligenz gesellschaftliche Probleme lösen? Welche gesellschaftlichen Auswirkungen hat ein Ordnen der Gesellschaft durch KI?

Keynote
  • Prof. Dirk Baecker , Universität Witten-Herdecke
    "Ordnung und Unordnung in der Gesellschaft mit Blick auf Religion, Staat und Technologie"
Impulsvorträge
  • Prof. Dr. Astrid Schwarz, BTU Cottbus Senftenberg
    "KI-Dinge: Ein-/Aus-/An-/Ab-/Um-/Zu-/Ver-/Ordnung"
  • Prof. Dr. Harald Peter Mathis, Fraunhofer-Anwendungszentrum SYMILA
    "KI für Mensch und Tier?"

mit den Vortragenden diskutieren

  • Ingo Dachwitz, netzpolitik.org
  • Tobias Wangermann, Konrad-Adenauer-Stiftung

Moderatorin: Prof. Dr. Jeannette Hofmann

12:00 Mittagspause

Session II erkundet, wie einerseits die Automatisierung von Prozessen und Entscheidungen, die bislang noch menschlichem Ermessen unterliegen, unsere Kultur und Lebenswelt verändert und welchen Einfluss andererseits Kultur und Gesellschaft auf die konkrete Ausgestaltung Künstlicher Intelligenz haben.

Keynote
  • Prof. Robert Geraci, PhD , Manhattan College New York
    "Recoding Religion. Theological Renderings of Artificial Intelligence and the Future of Society"
Impulsvortrag
  • Dr. Stefan Ullrich, Weizenbaum Institut
    "Calculemus! Ausrechnen statt Entscheiden"
  • Valerie Mocker, nesta
    "Wenn du nicht mehr weiter weißt, am besten: Testen."

mit den Vortragenden diskutieren

  • Lorena Jaume-Palasí, The Ethical Tech Society
  • Christian Wolter, BAMF

Moderator: Prof. Dr. Peter Parycek

15:00 Kaffeepause

Session III untersucht, inwiefern Künstliche Intelligenz Menschen Orientierung in ihrem Leben bieten kann. Welche Antworten auf die alltagsrelevanten Fragen jedes Einzelnen finden sich in KI-Systemen? Kann KI den Individuen Sinn stiften? Und schließlich: Wie entsteht Vertrauen in KI-Systeme?

Keynote
  • Prof. Dr. Dirk Helbing , ETH Zürich
    "Die Geburt eines Digitalen Gottes"
Impulsvorträge
  • Prof Dr. Dr. Benedikt Paul Göcke, Ruhr-Universität Bochum
    "Mit dem Terminator an der Theke? Phänomenologische Reflexionen über unseren Umgang mit Maschinen"
  • PD Dr. Andreas Sudmann, Ruhr-Universität Bochum
    "Vertrauen in KI als Medienproblem"

mit den Vortragenden diskutieren

  • Susanne Dehmel, bitkom
  • Lina Ehrig, VZBV
  • Dr. Elsa Kirchner, DFKI

Moderatorin: Vera Linß

17:00 Kaffeepause und Stärkung

 

Sprecher:innen

Prof. Dr. Dirk Baecker, Soziologe, lehrt Kulturtheorie und Management an der Universität Witten/Herdecke und ist Dekan der Fakultät für Kulturreflexion – Studium fundamentale. Studium der Sozial- und Wirtschaftswissenschaften an den Universitäten Köln und Paris-IX (Dauphine). Promotion und Habilitation im Fach Soziologie an der Universität Bielefeld.
Ingo Dachwitz ist Medien- und Kommunikationswissenschaftler, arbeitet als Redakteur bei netzpolitik.org und engagiert sich beim Verein Digitale Gesellschaft. Er schreibt und spricht über Datenkapitalismus, algorithmische Systeme und den digitalen Strukturwandel der Öffentlichkeit. Gelegentlich gibt er Workshops für junge und ältere Menschen in digitaler Selbstverteidigung und lehrt im internationalen Studiengang "Digital Media" an der Universität Lüneburg zur politischen Ökonomie digitaler Medien. Ingo Dachwitz war Jugendvertreter in der Synode der Evangelischen Kirche in Deutschland und ist seit 2016 Mitglied der sozialethischen Kammer der EKD.
Susanne Dehmel ist seit Oktober 2014 Mitglied der Geschäftsleitung des Bundesverbands Informationswirtschaft, Telekommunikation und neue Medien e.V. (Bitkom) und verantwortet den Geschäftsbereich Recht & Sicherheit. Zuvor leitete sie den Bereich Datenschutz. Sie ist Rechtsanwältin und absolvierte ihr Studium in Passau, Freiburg und Cardiff. Bevor sie beim BITKOM den Bereich Datenschutz übernahm, verantwortete sie von 2002-2009 die Bereiche Urheberrecht und gewerblicher Rechtsschutz. Wichtiger Teil ihrer Arbeit sind die Förderung von Vertrauen und Sicherheit in der digitalen Welt und die praxisgerechte Weiterentwicklung des rechtlichen Rahmens für die Informationsgesellschaft.
Lina Ehrig Leiterin des Teams Digitales und Medien beim Verbraucherzentrale Bundesverband e.V. Nach dem Studium der Rechtswissenschaften und dem Referendariat in Heidelberg und Berlin mit medienrechtlichem Schwerpunkt, begann Lina Ehrig 2007 als Legal Counsel bei der studiVZ Ltd. Sie beschäftigte sich dort vor allem mit datenschutz- und urheberrechtlichen Fragen in Bezug auf Soziale Netzwerke. Seit 2009 ist Lina Ehrig beim Verbraucherzentrale Bundesverband e.V. tätig, zunächst als Referentin für Telekommunikation und Medien und seit 2013 als Leiterin des Teams Digitales und Medien. Schwerpunkte des Teams sind u.a. Herausforderungen im Umgang mit algorithmenbasierten Entscheidungsprozessen und Künstlicher Intelligenz sowie Datenschutz-, Urheber- und Telekommunikationsrecht.
Prof. Robert M Geraci earned his PhD from the University of California at Santa Barbara and is Professor of Religious Studies at Manhattan College. He is the author of Apocalyptic AI: Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality (Oxford 2010), Virtually Sacred: Myth and Meaning in World of Warcraft and Second Life (Oxford 2014), and Temples of Modernity: Nationalism, Hinduism, and Transhumanism in South Indian Science (Lexington 2018). His research has been supported by the U.S. National Science Foundation, the American Academy of Religion, and two separate Fulbright-Nehru research awards. He is an elected Fellow of the International Society for Science and Religion.
Prof. Dr. Dirk Helbing ist Professor für Computational Social Science am Department für Geistes-, Sozial- und Politikwissenschaften sowie Mitglied des Informatikdepartments der ETH Zürich. Im Januar 2014 erhielt Prof. Helbing einen Ehrendoktor der Technischen Universität Delft (TU Delft). Seit Juni 2015 ist er assoziierter Professor an der Fakultät für Technik, Politik und Management an der TU Delft, wo er die Doktorandenschule "Engineering Social Technologies for a Responsible Digital Future" leitet.
Lorena Jaume-Palasí ist Mitgründerin von AlgorithmWatch und Mitgründerin und Geschäftsführerin von The Ethical Tech Society. Sie forscht zur Ethik der Digitalisierung und Automatisierung und befasst sich in diesem Zusammenhang auch mit rechtsphilosophischen Fragen. 2018 wurde sie von der EU Kommission in die High Level Expert Group on Artificial Intelligence berufen. 2017 wurde sie von der Regierung Spaniens in dem Weisenrat zu Künstlicher Intelligenz und Datenpolitik berufen. Sie ist eine der 100 Experten der Cotec Foundation für ihre Arbeit zur Automatisierung und Ethik. Sie ist zudem Bucerius Fellow der Zeit Stiftung und hat die Dynamic Coalition on Publicness des UN Internet Governance Forums (IGF) mitgegründet. Lorena ist Mitglied des Beirats der Initiative Code Red gegen Massenüberwachung. Schließlich leitet sie das Sekretariat der deutschen nationalen Sektion des IGF sowie Projekte zur Internet Governance in Asien und Afrika. Lorena wird regelmäßig von internationalen Organisationen, Verbänden und Regierungen konsultiert. Sie ist hat diverse Publikationen zu Internet Governance mitverfasst und herausgegeben und schreibt regelmäßig zu Datenschutz, Privatheit und Öffentlichkeit, öffentlichen Güter und Diskriminierung.
Dr. Elsa Andrea Kirchner born in 4750, received her Diploma (Dipl. Biol.) in 1999 from the University of Bremen, Germany. From 1997 to 2000 she was fellow of the Studienstiftung des Deutschen Volkes. With the help of the Stiftung Familie Klee award she was able to work as a guest researcher at the Department of Brain and Cognitive Sciences, MIT in Boston, USA, from 1999 to 2000. Since 2005, she is staff scientist of the Robotics Lab at the University of Bremen, Germany, leading the Brain & Behavioral Labs. Since 2008, she leads the team Interaction and since 2016 the extended team Sustained Interaction and Learning, at the Robotics Innovation Center of the German Research Center for Artificial Intelligence (DFKI GmbH) in Bremen, Germany. In 2014 she graduated (Dr. rer. nat) in Computer Science at the University of Bremen. Her scientific interests focus on human-machine interaction, cognitive architectures, neuropsychology, and electrophysiological methods. Since 2018 she is a member of Germany's "Platform for Artificial Intelligence" in the working group 6: "Health Care, Medical Technology, Care".
Dr. theol. Dr. phil. Benedikt Paul Göcke, geb. 1981, studierte Philosophie und Theologie in Münster, Oxford und München. Er ist Juniorprofessor für Religionsphilosophie und Wissenschaftstheorie am Lehrstuhl für Philosophisch-Theologische Grenzfragen der Katholisch-Theologischen Fakultät der Ruhr-Universität Bochum und assoziiertes Mitglied der Theologischen Fakultät der Universität Oxford, England. 2018 wurde ihm der Heinz-Maier-Leibnitz Preis der DFG zuerkannt. Göcke forscht zum Deutschen Idealismus, zur analytischen Theologie und zur Anthropologie der Digitalisierung.
Prof. Dr. Harald P. Mathis geboren 1966 in Saarlouis, studierte Physik, Chemie und Biochemie an der Universität des Saarlandes in Saarbrücken, wo er 1994 sein Diplom erwarb. Nach verschiedenen Stationen als wissenschaftlicher Mitarbeiter promovierte Prof. Dr. Mathis 2000 in Biophysikalischer Chemie an der Friedrich-Schiller-Universität/Institut für Molekulare Biotechnologie, Jena und am Karolinska-Institut, Stockholm. Er wurde ab 2001 Leiter der Gruppe Adaptive Biophotonik in der ehemaligen Gesellschaft für Mathematik und Datenverarbeitung (GMD), Sankt Augustin und ab 2004 Leiter der Abteilung "Biomolekulare Optische Systeme - BioMOS". Seit 2014 leitet Prof. Dr. Harald P. Mathis parallel das Fraunhofer Anwendungszentrum SYMILA-Systeme für mobile intelligente Systeme und moderne Lebens- und Arbeitswelten in Hamm. Gegenstand der von Prof. Mathis geleiteten Einheiten ist die Konzeption und Realisierung von informationsliefernden Systemen (Geräte, Sensoren, Software) und die Auswertung von Daten und Informationen mit mathematischen Verfahren, darunter auch KI-basierten Methoden. Die Applikationsfelder dieser Systeme sind u.a. die molekulare Informationsverarbeitung, Diagnostik, Telemedizinische Systeme und Telehealth-Portale, KI für Tierwohl.
Valerie Mocker ist Direktorin bei der Innovationsstiftung Nesta. Dort verantwortet sie die europäischen Beziehungen und den Bereich Digitalpolitik. Nesta finanziert, testet und verbreitet Lösungsansätze, mit denen die ganze Gesellschaft von der Digitalisierung und Innovationen profitiert. Auch als Speakerin, Moderatorin und Autorin hilft Valerie Mocker anderen Organisationen Visionen und praktische Werkzeuge zu entwickeln, mit denen aus Digitalisierung Wohlstand für alle entsteht. Valerie Mockers Beiträge erschienen unter anderem bei der OECD, re:publica, CeBit und dem Global Entrepreneurship Congress und in der BBC, The Economist und Die Zeit. Das Magazin Capital nahm Valerie Mocker 2017 in seine "40 unter 40"-Liste auf. Bevor Valerie Mocker 2013 zu Nesta stieß, arbeitete sie u.a. für E.ONs Strategieteam im Bereich Erneuerbare Energien und forschte im Bereich Verhaltensökonomie. Valerie Mocker hat zwei Abschlüsse (summa cum laude) von der University of Oxford.
Prof. Dr. Astrid Schwarz ist interessiert an der Charakterisierung theoretischer und praktischer Wissensformen. In ihrer philosophischen Feldforschung untersucht sie die wechselseitige Beeinflussung von Begriffen und Objekten, von Technik und Umwelt, von künstlerischem und wissenschaftlichem Experimentieren. Seit Februar 2017 ist sie Professorin für Allgemeine Technikwissenschaft an der BTU Cottbus-Senftenberg. Zuletzt publizierte sie „Experiments in Practice" (2014) und zusammen mit Bernadette Bensaude-Vincent, Sacha Loeve und Alfred Nordmann, „Research Objects in their Technological Setting" (2017).
Andreas Sudmann ist Medienwissenschaftler. Als Privatdozent arbeitet er an der Ruhr-Universität Bochum und vertritt derzeit eine Professur für Medienwissenschaft an der Philipps-Universität Marburg. Seit vielen Jahren forscht er bereits zu verschiedenen Problemstellungen der KI und des maschinellen Lernens, insbesondere mit Bezug auf künstliche neuronale Netzwerke und vor allem im Bereich Computer Vision. 2017 war er Fellow am Center for Advanced Internet Studies in Bochum, wo er sich speziell mit medienpolitischen Fragen der KI auseinandergesetzt hat. Gemeinsam mit Christoph Engemann ist er Herausgeber des Bandes „Machine Learning. Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz", der 2018 bei Transcript erschienen ist und als erster Überblick im deutschsprachigen Raum gelten kann, Probleme und Aspekte der KI aus medien- und kulturwissenschaftlicher Perspektive zu erörtern.
Stefan Ullrich ist promovierter Informatiker, Philosoph und Anhalter in der Turing-Galaxis. Er beschäftigt sich kritisch mit den Auswirkungen der allgegenwärtigen informationstechnischen Systeme auf die Gesellschaft. Er forscht und lehrt am Weizenbaum-Institut für die vernetzte Gesellschaft in Berlin.
Tobias Wangermann wurde 1963 in Leipzig geboren. Er studierte Germanistik, Kunstwissenschaft und Pädagogik in Greifswald, Berlin und Essen. Nach literaturwissenschaftlichen Projekten zur Spätaufklärung und zu Heinrich von Kleist ist er seit 1996 in der Konrad-Adenauer-Stiftung tätig: Zuerst als wissenschaftlicher Mitarbeiter in der Politischen Bildung und seit 2004 in der Hauptabteilung Politik und Beratung. Von 2012 bis 2015 leitete er dort die Stabsstelle Beratungsmanagement. Seit 2015 ist er Leiter des Teams Digitalisierung.
Christian Wolter wurde 1980 in Hannover geboren. Er studierte Betriebswirtschaft (M.A.) in Nürnberg. Nach der Realisierung von IT-Projekten im Bereich Gesundheitswesen und Innovationsmanagement war er als Head of Business Development bei der itonics GmbH unter anderem für die Früherkennung von Innovationstrends zuständig. Seit Anfang 2018 ist er im BAMF tätig und dort mit dem Aufbau des Kompetenzzentrums der Fachanalytik (Advanced Analytics) betraut.

Exponate

Ein Blick in die Blackbox neuronaler Netze

Neuronale Netze werden heute häufig für die Analyse komplexer Daten eingesetzt – zum Beispiel um in genetischen Informationen Hinweise auf Krankheiten zu entdecken. Letztlich aber weiß niemand, wie diese Netzwerke eigentlich genau arbeiten. Fraunhofer HHI-Forscher haben deshalb eine Software entwickelt, mit der sie in die Black Boxes hineinschauen und deren Arbeitsweise analysieren können. Der Classification-Demonstrator visualisiert, worauf der Blackbox- Algorithmus bei der Analyse von Daten schaut, z.B. bei der Kategorisierung von Alter und Geschlecht der Besucher oder dem Erkennen von handschriftlichen Zahlen.

Das Visual-Question-Answering-System (kurz: VQA) ist in der Lage den Inhalt von Bildern zu analysieren und darauf basierende Fragen zu beantworten. Das heißt, die Künstliche Intelligenz (KI) muss sowohl die Inhalte des Bildes als auch die Frage verstehen, um sinnvoll antworten zu können. Damit die Entscheidung der KI nachvollziehbar ist, werden die Teile im Bild hervorgehoben, die für die Entscheidung besonders relevant waren.

Begrüßung und Eröffnung

Prof. Dr. Peter Parycek und Dr. Karoline Krenn eröffneten das Symposium.

Session 1: „Was uns zusammenhält – KI als gesellschaftliches Ordnungssystem"

Keynote Prof. Dirk Baecker

Den Auftakt zur ersten Session machte Prof. Dirk Baecker von der Universität Witten-Herdecke mit seiner Keynote „Ordnung und Unordnung in der Gesellschaft mit Blick auf Religion, Staat und Technologie". Mit einer kurzen historischen Einordnung schärfte er den Blick für die Gegenwart. Baecker unterschied vier Medienepochen, die sich durch die spezifischen Herausforderungen mit der Einführung neuer Medien charakterisieren lassen: Sprache, Schrift, Buchdruck und Elektrizität. Baeckers Kernthese zur Ordnung in der Gesellschaft lautete: Jedes neu auftretende Medium, sofern es Dominanz gewinnt, überfordere die bisherige Kultur und die Strukturen der Gesellschaft. Es sei mehr Kommunikation möglich als je zuvor. Darauf sei die Gesellschaft nicht vorbereitet und es trete ein Medienschock auf. Kultur und Struktur der Gesellschaft müssen sich darauf erst wieder einstellen. Der Mensch müsse dabei aus Erfahrungen lernen mit diesen Veränderungen umzugehen. Die Vorstellung von Ordnung und Unordnung in der Gesellschaft werde entlang der Idee von negativen und positiven Rückkopplungen entwickelt. Ordnung beruhe auf negativen Rückkopplungen, also auf der Verhinderung von Dingen, die nicht gewünscht seien, während die positive Rückkopplung unerwünschte Abweichungen verstärken und die Ordnung gefährden können. Komplexität bezeichne die Schwierigkeit der Synchronisation von fünf sogenannten Systemreferenzen, die in jeder gegebenen sozialen Situation zwar in Wechselwirkung miteinander stünden, aber nur schwer vernünftig koordiniert werden können. Zu diesen Systemreferenzen zählen der Organismus, das Gehirn, das Bewusstsein, die Gesellschaft und schließlich die Maschine. Der Umgang mit Komplexität sei nach Baecker die in jeder sozialen Situation neu auszuhandelnde Koordination dieser Systemreferenzen und daher der Schlüssel um zu verstehen, wie in Gesellschaften Ordnung oder Unordnung hergestellt werde. Im antiken Ordnungsangebot von Religionen gehe es um das Verhältnis von Kosmos und Chaos, das durch Vorstellungen von Immanenz und Transzendenz geordnet werde. In den staatlichen Ordnungsgebilden der Neuzeit hingegen werde Ordnung durch Vorstellungen über Macht und Ohnmacht hergestellt. Zu diesen parallel existierenden Ordnungsangeboten kommt nach Baecker nun durch Technologie eine weitere Dimension hinzu. Ordnung äußere sich in diesem Kontext durch Kontrollvorstellungen über die Technologie und – im aktuellen Bezug – über Daten. Waren triviale Technologien einfach durchschaubar und einfache Instrumente, bringen nicht-triviale Technologien wie Algorithmen und intelligente Maschinen, die einen nicht definierbaren Output haben, eine neue Unvorhersehbarkeit hervor. Der Komplexitätszuwachs sei auf eine Kontrollambivalenz zurückzuführen: Kontrolliert der Mensch die Technologie oder die Technologie den Menschen? Der flexible Einsatz von Medien (wie z. B. Geld, Schrift, digitale Medien) sei der stabilisierende Ordnungsfaktor in der Gesellschaft. Im Medium unsichtbarer Maschinen gehe es dabei um den Umgang mit den Herausforderungen der Unmittelbarkeit und Geschwindigkeit der Kommunikation, der uneingeschränkten Möglichkeiten der Vernetzung, der Granularität der Informationen sowie der Interoperabilität der Systemreferenzen.

 
Impuls Prof. Dr. Astrid Schwarz

Im anschließenden Impulsvortrag "KI-Dinge: Ein-/Aus-/An-/Ab-/Um-/Zu-/Ver-/Ordnung" argumentierte Prof. Dr. Astrid Schwarz mit der zunehmenden Existenz von intelligenten Gegenständen, sogenannten „KI-Dingen". Diese Alltagspräsenz eröffne intelligenten Dingen Einfluss auf die Gestaltung des Sozialen. Gebrauchsgegenstände strukturieren den Alltag und vereinfachen das Leben, und damit prägen sie das Weltbild und schaffen Ordnung(en). Schwarz argumentierte weiter, dass sich die Bedeutung von Künstlicher Intelligenz durch den Gebrauch der KI-Dinge durch die Nutzer:innen ergebe. KI-Technologien unterschieden sich von anderen Technologien vor allem dadurch, dass sie ein analogisches Verhältnis zur menschlichen Intelligenz anbieten. Künstliche Intelligenz nütze wie der Mensch Zeichen, iterative Problemlösungsansätze und „Hebzeuge" zum Erkenntnisgewinn. Ausgehend von der Annahme, dass digitale Infrastrukturen auf eine gemeinsame Nutzung kognitiver und wissensbasierter Ressourcen angewiesen seien, könne das Internet als eine digitale Allmende betrachtet werden. Die materielle Basis dieser Technologie sei allerdings nach wie vor an Orte (wie Datenverarbeitungszentren) gebunden und auf Personen (wie Programmierer:innen) angewiesen, die damit verschiedenen nationalen Kontrollregimen unterliegen. Schwarz schloß mit dem Verweis auf dieses materielle Ordnungsprinzip, das sie als eine „Geografie der Daten" bezeichnete.

 
Impuls Prof. Dr. Harald Peter Mathis

Im zweiten Impuls ging Prof. Dr. Harald Peter Mathis vom Fraunhofer-Anwendungszentrum SYMILA anhand konkreter Einsatzszenarien Fragen nach der Wirksamkeit und dem Nutzen von Künstlicher Intelligenz und dem wechselseitigen Lernen von Mensch und Maschine nach. Mathis betonte, dass KI zunächst keine genuin positive oder negative Technologie sei. Eine solche Bewertung lasse sich erst im konkreten Einsatz vornehmen. Dies veranschaulichte er an einer Reihe praktischer Beispiele. So könne der Mensch anhand der sensorischen Vermessung wie durch Fitnesstracker, die KI-basierte Auswertungs- und Analysefunktionen nutzen, viel über sich selbst lernen. Ein kontroverser Aspekt von KI-Systeme sei die mögliche Aufgabe von Souveränität und Autarkie. Beispielsweise lasse sich bewährte Nutzung in einem Bereich (z. B. Tierwohl) nicht in andere Domänen (z. B. Altenpflege) übertragen. Generell stellten sich hinsichtlich der Nutzung von Künstlicher Intelligenz Fragen nach sozialer und ethischer Verantwortung sowie nach einer friedlichen Koexistenz von KI und Mensch. Mathis schloß mit einer Überlegung, worin der Mensch Maschinen überlegen sei: Das bleibe seine Selbstbestimmtheit. Diese Selbstbestimmtheit werde nach Mathis auch die Auseinandersetzung um die Begrenzung von Künstlicher Intelligenz leiten müssen.

 
Podiumsdiskussion

Im Anschluss diskutierten die Vortragenden unter Moderation von Prof. Dr. Jeanette Hofmann vom Wissenschaftszentrum Berlin für Sozialforschung mit Ingo Dachwitz von netzpolitik.org und Tobias Wangermann von der Konrad-Adenauer-Stiftung. Ingo Dachwitz vertrat die These, dass sich das Bedürfnis nach Ordnungssuche aus einem zunehmenden Vertrauensverlust in bestehende Ordnungssysteme ergebe. Er regte zudem an, auch die Rolle der Ökonomie in der Diskussion um Ordnungssysteme zu beleuchten. Tobias Wangermann wies darauf hin, dass die derzeitige Debatte um künstliche Intelligenz primär eine technologiegetriebene sei, und empfahl, die gesellschaftliche Perspektive stärker einzubringen. Verschiedene Seiten betonten, dass der Begriff der künstlichen Intelligenz in der öffentlichen Debatte mit Bedeutungen überfrachtet werde und zu hohe Erwartungen an die Technologie gestellt werden. Auch wenn KI nicht alle Erwartungen erfüllen könne, so Dachwitz, sei es dennoch wichtig die Nutzung einzuhegen. Als problematisch betrachtete er die Dominanz großer Organisationen und die damit verbundene Machverschiebung vom Individuum zu Organisationen. Dirk Baecker warf ein, dass die Komplexität der Gesellschaft einer solchen Einhegung entgegenstehe. Er plädierte vielmehr dafür, dass einzelne Staaten mit positiven Beispiele für den KI-Einsatz Vorbilder werden können. Die Paneldiskussion legte offen, dass es sowohl in der Ansicht über relevante Akteure und Entwicklungsparadigmen als auch in der Bewertung Künstlicher Intelligenz noch große Differenzen zwischen verschiedenen Expertenkreisen gibt. Während Harald Peter Mathis primär Mathematiker:innen und Informatiker:innen als Treiber der KI-Entwicklung sah, stellte Astrid Schwarz den Einfluss der Nutzerbedarfe heraus. Im Ergebnis lässt sich damit zusammenfassen, dass es eine Kernaufgabe der Zukunft sein wird das interdisziplinäre Domänenwissen zu synthetisieren. Das sollte bei einer Übereinkunft über die Verwendung von Begriffen beginnen. Die Debatte um Künstliche Intelligenz ist dabei nicht nur wissenschaftsintern zu führen, sondern sollte eine breite ethische, gesellschaftliche Reflexion in den Mittelpunkt zu stellen.

Session 2: „Wer entscheidet – Automatisierte Urteilskraft"

Keynote Prof. Robert Geraci

Prof. Robert Geraci eröffnete die zweite Session mit einer Keynote über den Einfluss von Religion und Kultur auf die Gestaltung von Künstlicher Intelligenz. Kulturen unterscheiden sich in den Werten und Zielen, die sie mit der Entwicklung Künstlicher Intelligenz verfolgen. Während in den USA mit KI Vorstellungen von Hoffnung oder Kontrolle verbunden seien, stehen in Indien Werte wie Pflichtbewusstsein oder Fürsorge im Vordergrund. Geraci kritisierte insbesondere den Technologiedeterminismus und -pessimismus in den USA, der sich seiner Ansicht nach aus der Vorstellung göttlicher Vorsehung speist. Wenn nur erfolgreiche Technologien betrachtet werden und erfolglose in Vergessenheit geraten, erscheine die Technikentwicklung schnell deterministisch. Dabei sei die Zukunft der Entwicklung nicht linear, sondern offen. Gesellschaftliche Ziele und menschliche Erwartungen beeinflussten die Technikentwicklung. In den Entscheidungen darüber, wer Zugang zu Technologie erhalte und wer sie beurteilen dürfe, manifestieren sich Machtstrukturen. Künstliche Intelligenz zwinge uns außerdem über die Natur des Menschen nachzudenken, sei es über die Szenarien eines Transhumanismus, der die Grenzen zwischen Mensch und Maschine aufzulösen scheint, über dystopische Entwicklungen wie in den Romanen von Isaac Asimov oder über eine alltägliche Anpassung an Technologie in der Interaktion damit. Geraci schloss mit der Forderung nach einer aktiven Beobachtung von KI und ihrer sozialen Auswirkungen.

 
Impuls Dr. Stefan Ullrich

Die Kernaussage des Impulses von Dr. Stefan Ullrich vom Weizenbaum-Institut lautete, dass Maschinen nicht entscheiden, sondern lediglich berechnen. Maschinelle „Entscheidungen" seien in diesem Sinne lediglich Messungen. Diese Feststellung problematisierte Ullrich mit dem Verweis darauf, dass nicht alle Phänomene der sozialen Welt messbar seien – auch Menschen seien prinzipiell unberechenbar. Algorithmische Entscheidungssysteme seien allerdings soziotechnische Systeme. Die Annahmen, auf denen Berechnungen beruhen, werden von der KI nicht reflektiert. Die Leibniz‘sche Idee, alles berechnen zu können, erfreue sich jedoch im Zuge der algorithmischen Revolution neuer Beliebtheit. Zahlen spenden Sicherheit und ein Gefühl von Kontrolle. Dabei gebe es in der Natur keine klaren Linien, sondern nur Kontinuen. Für die Alltagsanwendungen reiche es, wenn die Maschine auf diesem Kontinuum ein ungefähres Ergebnis liefere. Dies bewahre allerdings nicht vor Entscheidungsfehlern, wie Ullrich am Beispiel irrtümlicher Terrorverdächtigung durch automatische Gesichtserkennung wie im Modellprojekt Berlin-Südkreuz erörterte. Eine der zentralen Fragen im Umgang mit KI sei daher insbesondere, wie eine Gesellschaft mit Fehlentscheidungen umgeht, die für Betroffene gravierende Folgen wie Grundrechtsverletzungen haben können. Wie im Eckpunkte-Papier der Bundesregierung zu Künstlicher Intelligenz gefordert, sollten daher Menschenwürde, Privatheit und die Vorgaben des Grundgesetzes die Grundlage für die Entwicklung und Nutzung von KI bilden und immer über einem wirtschaftlichen Vorteil stehen.

 
Impuls Valerie Mocker

Im zweiten Impuls plädierte Valerie Mocker von nesta für ein experimentierfreudigeres Vorgehen bei der Entwicklung von KI. Anstelle von Arbeitsgruppen, die Vor- und Nachteile von KI-Lösungen theoretisch erörtern, solle man geschützte und kontrollierte Experimentierräume wie „Sandboxes" schaffen, in denen gesetzliche Regulierungen bis zu einem gewissen Umfang gelockert und praktische Erkenntnisse zu den Auswirkungen gewonnen werden können. Am Anfang technologischer Entwicklung stehe immer ein konkretes Problem oder ein Bedarf. In Experimentierräumen können KI-Lösungen zeigen, wie sie diese Herausforderung meistern. Verschiedene Lösungen könnten so in einen Wettbewerb miteinander treten und anschließend durch die relevanten Stakeholder evaluiert werden. Großbritannien habe bereits recht positive Erfahrungen mit der Ableitung Gemeinwohl orientierter Regulierungsempfehlungen aus „Sandboxes" gemacht.

 
Podiumsdiskussion

Unter Moderation von Prof. Dr. Peter Parycek vom Kompetenzzentrum Öffentliche IT diskutierten die beiden Impulsvortragenden anschließend mit Christian Wolter vom Bundesamt für Migration und Flüchtlinge und Lorena Jaume-Palasí von der Ethical Tech Society über die Automatisierung von Entscheidungsprozessen durch KI-Systeme. Ein Schwerpunkt lag auf Empfehlungen in Verwaltungsverfahren. Legaltech-Anwendungen im Bundesamt für Migration und Flüchtlinge folgen laut Christian Wolter bereits einem „Sandboxing"-Ansatz, wie er im Impuls von Valerie Mocker vorgestellt wurde. Dabei seien Sicherheit, Rechtmäßigkeit und Verantwortung gegenüber der Gesellschaft Leitlinien für die Anwendung. KI-Anwendungen wie maschinelles Lernen kommen insbesondere bei der Text- und Sprachanalyse sowie unterstützend im Entscheidungsverfahren zum Einsatz. Die zentralen Herausforderungen im Kontext der Entscheidung über den Aufenthaltsstatus von Geflüchteten seien Genauigkeit und der Umgang mit Veränderungen in den Rahmenbedingungen wie beispielsweise der Situation in den Herkunftsländern. KI-Empfehlungen werden daher immer geprüft und die Letztentscheidung bleibe beim Menschen, da KI-Systeme Informationen nicht kontextualisieren können, wie auch Lorena Jaume-Palasí betonte. Jaume-Palasí wies allgemein auf die Problematik der Nachvollziehbarkeit von Entscheidungen hin und bemängelte diesbezüglich die KI-Entwicklung im maschinellen Lernen. Sogenannte „Blackbox"-Systeme, die keine Nachvollziehbarkeit gewähren, seien aus ökonomischen Gründen weit verbreitet. Sie seien in der Entwicklung einfach und günstig, ihre Verbesserung sei allerdings teuer und aufwendig. Bei interpretierbarem maschinellen Lernen, das eine Nachvollziehbarkeit der Entscheidung erlaube, sei es genau umgekehrt. Jaume-Palasí sprach sich daher für mehr Vielfalt von KI-Systemen und den Verzicht auf Blackbox-Systeme in sensiblen Bereichen mit Diskriminierungsrisiken aus. Sie plädierte dafür, diese Diskussion noch stärker in den Anwendungsbereich zu tragen. Alternativ zur Regulierung von Algorithmen forderte sie eine Regulierung der Nutzung von KI-Systemen. Im Straßenverkehr wären ebenfalls nicht die Anzahl der PS, sondern die erlaubte Höchstgeschwindigkeit begrenzt. Valerie Mocker schlug dazu die Nutzbarmachung von Sandboxes für eine antizipative Regulierung vor. Mit den richtigen Anreizen, zum Beispiel in Form von Kriterien in Förderprogrammen, könne die KI-Entwicklung zudem weiter demokratisiert werden. Stefan Ullrich führte China als Negativbeispiel für einen Sandbox-Ansatz an. Einig war man sich schließlich darüber, dass man offen über Ziele von KI und die dahinterstehenden Interessen diskutieren sollte. In diesem Zusammenhang wurde auch über Effizienz, zum Beispiel mit Blick auf die Geschwindigkeit von Maschinen, als einem Treiber der Entwicklung gesprochen. Das Panel war sich allerdings darüber einig, dass auch die Stärken von KI nicht von der Verantwortung zur Entscheidung und Gestaltung entlasten. Da sowohl Menschen als auch Maschinen Modellen folgen und Fehlentscheidungen treffen, sprach sich das Panel für ein Zusammenspiel aus beiden als eine Kombination der Stärken und der Korrektive aus.

Session 3: „Woran wir glauben – In Maschinen vertrauen"

Keynote Prof. Dr. Dirk Helbing

Die Session wurde mit einer Keynote von Prof. Dr. Dirk Helbing (ETH Zürich) mit dem Titel "Die Geburt eines Digitalen Gottes" eröffnet. Helbing verknüpfte in seinem Vortrag die Metapher vom Superorganismus, also die Überlegung, dass wir uns auf der Erde zu einem globalen Superorganismus vernetzen (wie beispielsweise in einer intelligent vernetzen Smart City), mit der Frage nach der Steuerung komplexer Systeme. Aktuelle Beispiele zeigen erstaunliche Fortschritte bei Künstlicher Intelligenz und Robotik und scheinen zunächst eine optimistische Technikfortschrittsthese zu stützen. Helbing wies auf die Gefahren einer solchen verklärenden Sichtweise eines zentralen „Supergehirns" hin. Gesellschaft werde in solchen Beispielen oft als komplexe Maschine verstanden, die vom Staat oder von Konzernen gesteuert wird. Im Kontext neuer Steuerungsmöglichkeiten warnte er vor Ansätzen eines digitalen Totalitarismus oder digitalen Feudalismus, die auf der Idee von zentralen Steuerungsinstanzen beruhen. Als Gegenentwurf dazu propagierte er das Konzept einer kollektiven Intelligenz, die wie ein Schwarm von Vögeln oder Insekten ohne eine zentrale Steuerung auskommt. Helbing sieht in einer solchen Technik basierten kollektiven Intelligenz, die auf den Mechanismen sozialer Selbstorganisation beruht, die Aussicht auf eine digitale Demokratie, die auf die menschlichen und nicht quantifizierbaren Eigenschaften zugeschnitten ist und damit letztlich die Menschenwürde schützt. Beispiele für solche dezentralen Systeme seien vernetzte Sensoren und Geräte wie sie im Internet der Dinge Verwendung finden. Lokale Entscheidungen optimieren das Gesamtsystem. Helbings These lautete dementsprechend: „Mit dem Internet der Dinge können wir Adam Smiths unsichtbare Hand zum Funktionieren bringen." Helbings Argumentation beruhte dabei auf spieltheoretischen Überlegungen zu Reziprozität und Reputationssystemen sowie auf kybernetischen Vorstellungen von der Selbstregulierung komplexer Systeme. Gesellschaft wird diesen Ansätzen zufolge dadurch gesteuert, dass Nicht-Kooperation bestraft wird. Würde man die Datennutzung an selbstregulierte Systeme knüpfen, würde das die Kontrolle der Daten wieder in die Hände der Bürger legen. In Hinblick auf Künstliche Intelligenz sieht Helbing neben einer generellen Transparenz auch mehr Gestaltungspielräume. Beispielsweise könne die algorithmische Programmierung von KI basierten Entscheidungssystemen direkte Entscheidungen auf eindeutige Fälle beschränken und die übrigen Fälle zurück an den Menschen verweisen.

 
Impuls Prof Dr. Dr. Benedikt Paul Göcke

In seinem Impulsvortrag "Mit dem Terminator an der Theke? Phänomenologische Reflexionen über unseren Umgang mit Maschinen" stellte Prof Dr. Dr. Benedikt Paul Göcke (Ruhr-Universität Bochum) Überlegungen dazu an, unter welchen Bedingungen KI einen Beitrag zur Sinnstiftung für den Menschen liefern könne. Er definierte Intelligenz als nicht-deterministische Interaktion mit der Umwelt auf Basis von Werten. Bei künstlicher Intelligenz gehe es um Mechanismen zur Urteilsfindung und die Auswahl von Handlungsalternativen, die menschlicher Kunstfertigkeit gleichen. Eine KI kann seiner Ansicht nach nur dann zur Sinn-Orientierung des Menschen beitragen, wenn sie originäre Antworten auf die menschlichen Sinnfragen zu liefern vermag. Oder anders ausgedrückt, wenn die KI einen Abend mit uns verbringt und wir mit ihr über den Sinn und Zweck des Lebens diskutieren können, ohne dabei einen Unterschied zu einem Gespräch mit einem Menschen zu bemerken. Der Turing-Test lässt sich nach Göcke um eine solche Bedingung erweitern. Davon seien wir aber noch weit entfernt.

 
Impuls PD Dr. Andreas Sudmann

In seinem Impulsvortrag "Vertrauen in KI als Medienproblem" ging PD Dr. Andreas Sudmann (Ruhr-Universität Bochum) von der Frage aus, wie sich KI demokratisieren lässt. Hinter Diskussionen um diese Frage stecken zwei Annahmen, zum einen die, dass KI fundamental undemokratisch sei, zum anderen jene, dass sie sich aber prinzipiell demokratisieren lasse. Durch diese Fokussierung des Diskurses wird auch das Phänomen unter ein spezifisches Licht gestellt. Sudmanns These lautete, dass die Wahrnehmung von Künstlicher Intelligenz in der medialen Darstellung begründet liege. Er identifizierte zwei wesentliche Probleme in der Diskussion über KI. 1.) Eine Anthropomorphisierung der Diskussion um Vertrauen: Betrachtungen über KI lehnen sich in ihrem Vokabular bewusst an menschliche Eigenschaften an, ungeachtet der Tatsache, dass technische Systeme anders funktionieren. Bereits durch Fragestellungen wie beispielsweise nach Vertrauen werden beim Publikum emotionale Ebenen angesprochen, denen Maschinen nicht gerecht werden können. 2.) Ein fragwürdiges Expertentum: Aktuell fühlen sich scheinbar Experten:innen aus verschiedenen Fachgebieten berufen Künstliche Intelligenz zu kommentieren. Es fehle allerdings häufig an Kenntnissen zur technischen Geschichte der KI und der Komplexität der Technik. Eine zentrale Kritik an KI sei beispielsweise die „Black Box" Metapher, also die Kritik an der Nicht-Nachvollziehbarkeit der Entscheidungsfindung. Dabei werde außer Acht gelassen, dass auch Menschen für einander eine Black Box bleiben. Die Überschneidung von technischen und gesellschaftlichen Fragestellungen erfordere daher zunächst eine Auseinandersetzung mit dem jeweiligen Domänenwissen und schließlich Konzepte, die Mensch und Maschine in ihrem Zusammenwirken und nicht als Gegensatz begreifen. Dies bleibe weiterhin eine Herausforderung.

 
Podiumsdiskussion

Moderiert von der Journalistin Vera Linß diskutierten die Vortragenden zusammen mit Dr. Elsa Kirchner (DFKI), Susanne Dehmel (bitkom) und Miika Blinn (VZBV) über Vertrauen in KI. Vertrauen sei vor allem bei sozial und individuell relevanten Systemen unverzichtbar, also bei Systemen, die Entscheidungen über Menschen treffen. Aus ihrer angewandten Forschung zu robotischen Exoskeletten konnte Dr. Kirchner über unterschiedliche Erfahrungen von Menschen mit maschinellen Hilfssystemen berichten. In der Regel nehmen Schlaganfall-Patienten einen Roboterarm schnell als den ihren an. Irritationen können aber ausgelöst werden, wenn sich eine robotische Armprothese angeregt durch die Detektion von Hirnströmen bewege, bevor dem steuernden Menschen sein eigener Bewegungswunsch bewusst sei. Für den medizinischen Anwendungsbereich lasse sich das Vertrauen in Künstliche Intelligenz durch eine Aufklärung über die Verfahren schaffen. Transparenz sei auch das zentrale Thema für die Verbraucherzentralen, wie Miika Blinn ausführte. Dort, wo Menschen unmittelbar betroffen seien, müsse nachvollziehbar werden, warum ihnen beispielsweise jene Versicherungsverträge angeboten werden und keine anderen oder wie ihr Kredit-Score zustande komme. Das Verbrauchervertrauen sei aber auch für Unternehmen wichtig, wie Frau Dehmel von bitkom betonte. Produkte und Dienste, die Menschen bedrohlich erscheinen, finden auf Dauer keine Abnehmer. Die Vorstellung einer Superintelligenz berühre dabei Urängste des Menschen vor der Überlegenheit fremder Mächte. Firmen können dieses notwendige Vertrauen durch ethische Selbstverpflichtungen und umfangreiche Prüfungen ihrer Produkte herstellen. Eine Selbstauskunft von Maschinen über die Sicherheit, mit der Entscheidungen getroffen werden, könne nach Ansicht von Andreas Sudmann ebenfalls vertrauensbildend wirken. Dirk Helbing sieht Vertrauen dadurch gewährleistet, dass gesellschaftliche Werte in die Technik implementiert werden. Eine Leitidee könne dabei sein, vor allem Anwendungen zu befördern, die die Verbraucher:innen ermächtigen, statt sie zu kontrollieren und zu sanktionieren. Benedikt Göcke schloss aus der Diskussion, dass uns eine Beschäftigung mit KI dazu zwingt, uns philosophisch-aufklärerisch mit uns selbst zu beschäftigen.