ITAS-Kolloquium 2013
-
Veranstaltungsart:
Vortragsreihe
- Tagungsort:ITAS, Karlstrasse 11, 76133 Karlsruhe
- Datum:2013
Donnerstag, 10. Januar 2013, 11:30 Uhr (Gastvortrag)
Herausforderung Luftverkehrsmanagement – Heute und in der Zukunft
Die Entwicklung des Luftverkehrs ist mit einer Vielzahl von Herausforderungen konfrontiert. Die beinahe stetige Zunahme der Verkehrsbewegungen in den vergangenen Jahrzehnten flachte sich im Zeichen der Wirtschaftskrise in Europa zwar ab, dennoch gehen die Prognosen noch immer von einem weiteren Wachstum im weltweiten Luftverkehr aus. Globaler Wettbewerb und gesellschaftliche Randbedingungen stellen jedoch gleichzeitig immer höher Anforderungen an die Leistungsfähigkeit, Effizienz und Umweltverträglichkeit des gesamten Lufttransportsystems. Die Forschung und Entwicklung im Luftfahrtbereich versucht diesen Anforderungen gerecht zu werden. Während jedoch technische Verbesserungen am Luftfahrzeug selber ihre systemrelevanten Auswirkungen erst über einen längeren Zeitraum entfalten können, besitzen Innovationen im Luftverkehrsmanagement (Air Traffic Management – ATM) häufig das Potential für bereits kurzfristig spürbare Effekte. Das Deutsche Zentrum für Luft- und Raumfahrt DLR erforscht entsprechende Konzepte für die Optimierung operationeller Prozesse und Technologien im ATM-Bereich. Mit dem Validierungszentrum Luftverkehr in Braunschweig verfügt es zudem über Experimentaleinrichtungen zur Überprüfung derartiger Entwicklungen auf Ihre Eignung und Leistungsfähigkeit. Der Vortrag stellt die aktuellen und zu erwartenden Herausforderungen an das Luftverkehrsmanagement vor und gibt einen Überblick über die Forschungsthemen am Validierungszentrum Luftverkehr des DLR.
Montag, 18. Februar 2013, 12:30 Uhr (Gastvortrag)
A Platform for Trustworthy Systems
Safety and security of computing systems is becoming an increasing challenge, as their complexity increases while at the same time they are increasingly trusted with critical functions. This talk provides an overview of the Trustworthy Systems activities at NICTA, which aim to provide a platform that can support real-world systems and allows us to make strong guarantees about their safety, security or reliability. The approach is based on the large-scale application of theorem proving and other formal methods. It has resulted in the design and implementation of a microkernel, called seL4, with a proof of functional correctness and integrity enforcement as well as a sound and complete worst-case timing model. Secure-system prototypes using this kernel have been demonstrated and analysed. Present work, besides proving further security properties of the kernel, focuses on a framework supporting the construction of provably trustworthy systems which include large, untrusted legacy components.
Montag, 11. März 2013, 14:00 Uhr
Neue Herausforderungen in der Wissenschaftskommunikation – und wie das NaWik helfen will, sie zu meistern
Die Medienlandschaft befindet sich aktuell in einem grundlegenden Umbruch. Der externen Wissenschafts-kommunikation bieten sich dadurch zahlreiche neue Möglichkeiten, denn die Zahl der für WissenschaftlerIn-nen aktiv bedienbaren medialen Formate hat stark zugenommen. Neben bewährte Formate wie populärwis-senschaftliche Vorträge und Artikel sind innovative Onlineformate wie Blogs und Videos getreten; aber auch neue Offlineformate wie Science Slam oder Kinderuni bieten neue Chancen für den Brückenschlag zwischen Forschung und Allgemeinheit.
Während die traditionellen Gatekeeper der Medien ihre Macht teilweise einbüßen, bietet sich Wissenschaftle-rInnen die Möglichkeit, aktiv in Dialog mit „der Öffentlichkeit“ zu treten und die viel beschworene Bringschuld der Wissenschaft gegenüber der Gesellschaft einzulösen. Allerdings gibt es bislang kaum entsprechende systematische Lehrangebote. Hier setzt das Nationale Institut für Wissenschaftskommunikation (NaWik) mit Weiterbildungsangeboten für WissenschaftlerInnen an.
Durch enge Verzahnung mit dem neuen Lehr- und Forschungsbereich „Wissenschaftskommunikation“ am KIT bietet sich zudem die Chance, die Prozesse der Wissenschaftskommunikation gemeinsam zu erforschen.
Donnerstag, 21. März 2013, 10:00 Uhr (Gastvortrag)
Technischer Wandel und Happiness
Die empirische Happinessliteratur hat den Themenkomplex 'Technischer Wandel und Happiness' bisher übergangen. Ein Grund liegt sicherlich darin, dass 'technischer Wandel' ein komplexes Phänomen ist, das in viele wirtschaftliche und gesellschaftliche Bereiche hineinwirkt. Der heutige Vortrag soll zuerst einen Überblick über mögliche Transmissionskanäle des technischen Wandels auf die Happiness vor allem aus ökonomischer Perspektive (aber nicht ausschließlich) geben. Beispielhaft sollen dann einige empirische Studien zum Bereich 'Web 2.0 und Happiness' vorgestellt werden.
Montag, 08. April 2013, 14:00 Uhr (Gastvortrag)
(Was) können wir durch China lernen? Interkulturell reflektierte Technikfolgenabschätzung und Ethik
In der Auseinandersetzung mit unterschiedlichen Rahmenbedingungen für die Entwicklung von Technologie zeigen sich wissenschaftliche und ethische Fragestellungen in ungewohnter Perspektive. Diese Abweichungen sind sowohl philosophisch interessant als auch operativ relevant: sie schlagen sich in unterschiedlichen Praktiken und Standards von Governance nieder. Idealer Weise können sie neue Einsichten in die kulturellen, gesellschaftlichen und wissenschaftlich-praktischen Dynamiken von Wissenschaft und Technologie anregen und sowohl die TA-Theorie und das Selbstverständnis als auch die Fähigkeit zur nachhaltigen Kooperation verbessern.
Der Vortrag wird in diesem Sinne einige Einblicke und Reflektionen aus der Entwicklung Chinas zum „Global Player“ in R&D geben und mögliche Lehren für TA und Ethik aus europäischer Sicht formulieren.
Dienstag, 16. April 2013, 14:00 Uhr (Gastvortrag)
iMODELER – besserer Umgang mit Komplexität
Im Rahmen des Gastvortrages wird der iMODELER als technologisch-führendes Werkzeug für die Qualitative & Quantitative Ursache-Wirkungsmodellierung anhand konkreter Beispielmodelle vorgestellt. Anschließend werden Möglichkeiten einer zukünftigen Zusammenarbeit offen diskutiert sowie Ihre Anforderungen an die zukünftige Weiterentwicklung aufgenommen.
Kurzbeschreibung iMODELER:
Sich anderen verständlich zu machen, ist oftmals schwierig. Dies gilt insbesondere dann, wenn bei der Bearbeitung & Vermittlung von komplexen Herausforderungen unterschiedliche Fachdisziplinen beteiligt sind. Der auf der CeBIT mehrfach mit dem Innovationspreis-IT ausgezeichnete iMODELER schafft nun Abhilfe und nutzt dabei das visuelle Arbeiten als Universalsprache. Mit dem iMODELER führen Sie sich und anderen die entscheidenden Faktoren und deren Zusammenhänge (inkl. Wechselwirkungen, Wirkungsrichtungen, -stärken und zeitlichen Verzögerungen) zu unterschiedlichsten komplexen Herausforderungen spielend einfach grafisch vor Augen und die Erkenntnis-Matrix zeigt Ihnen automatisch auf, was für ein erfolgreiches Handeln zu beachten (Risiken) und was zu tun ist (Maßnahmen). Bei Bedarf kann das Ursache-Wirkungsmodell auch für die Durchführung von verschiedenen Was-wäre-wenn-Szenarien quantifiziert werden.
Der iMODELER begeistert insbesondere durch eine einfache Bedienbarkeit, automatische Modellgestaltung, animierte Navigation durch größere, komplexere Modelle (Perspektivwechsel) sowie durch eine 3D-Darstellung, Gestensteuerung & Spracheingabe. Die Anwendung macht einfach nur noch Spaß und läuft als Desktop-Version auf Windows, Mac und Linux sowie als Web-App zusätzlich auf Smartphones und Pad-Computer. Das Web-App erlaubt zudem ein kollaboratives MODELN im Web.
Weitere Informationen zum iMODELER: http://www.imodeler.net/Dt/iMODELER.html
Montag, 06. Mai 2013, 14:00 Uhr
Warum Verbote allein als universale moralische Normen wirksam werden können?
Die Philosophie in ihrer klassischen Gestalt hat stets ihre Menschen- und Weltanschauung bis zur Formulierung umfassender ethisch-normativer Programme ausgebreitet. Ihre Vollendung hat sie jeweils in einer Ethik erhalten. Die Ethik war der primär wichtige Kanal für den Ausfluss der Philosophie in die Praxis, weshalb sie auch denn praktische Philosophie hieß. Im Rahmen der Philosophie und vermittelst ihrer haben sich die ethischen Ideale und Praktiken der kontemplativen Glückseligkeit, des Eudämonismus, des Stoizismus, des Epikureismus, der Liebe, des heroischen Enthusiasmus, der Pflicht, des vernünftigen Egoismus und andere mehr herausgebildet und in die europäische Kultur eingetreten. Der Gegenstandsbereich philosophischer Ethik wurde mit der Frage „was soll ich tun?“ umschrieben.
Die Eigentümlichkeiten einer negativen Handlung verallgemeinernd lässt sich sagen, dass ein Mensch seine sittliche Eigenschaft nicht nur und nicht sosehr darin offenbart, was er tut, als vielmehr darin, was er unterlässt. Wir sind wahrhaftig sittlich, ohne Täuschung und Selbsttäuschung erst dann sittlich, wenn wir uns des Üblen enthalten, wenn wir in uns selber Versuchungen und Verlockungen blockieren. Wir können freilich in unseren positiven Handlungen erfolgreich, effizient, geschickt, besonnen, fachgerecht, glücksgesegnet sein. Diese Handlungen können wohl darüber hinaus als gute, fromme, wohlwollende Handlungen gelten. Jedoch lässt sich diese zusätzliche sittliche Bewertung in der Regel nicht überprüfen, und sie gibt auch für das bessere Verständnis der Handlungen ihrem faktischen Inhalt nach nicht besonders viel. Was hingegen die sittlich verbotenen, d.h. negativen Handlungen angeht, so sind es eben solche Handlungen, die sich ausschließlich oder zumeist kraft des Innewerdens ihrer sittlichen Unzulässigkeit halten.
Freitag, 14. Juni 2013, 10:00 Uhr
Technology Assessment: experimenting with epistemology & democracy
Bijker will review experiences with technology assessment (TA) in The Netherlands, and argue that it is valuable to see TA as a form of experimenting. This experimenting, then, pertains to epistemology as well as to democracy. Both dimensions are, and always have been, crucial for TA; however, they have not always been explicitly considered as something worth experimenting with and reflecting on.
Work in STS (science, technology and society studies) during the past three decades has led to a reconceptualization of scientific knowledge, expertise, and technology systems. Bijker will summarize these developments by presenting a theory about the role of scientific advice in democracies. This implies recognizing the value of different (civic) epistemologies, and indeed experimenting with epistemologies.
Taking that pluriform epistemology seriously has also implications for the set-up of our democracies. To propose one best approach would be a foolish form of hubris, if only because the world’s democracies are quite different to begin with. Conducting experiments that lead to small-step changes seems a better strategy. Bijker will present the recent experiences in the Netherlands with governing nanotechnologies as an experiment with democracy.
Montag, 17. Juni 2013, 10:30 Uhr
Nanotechnologies and Nanoethics in Ukraine
Nanotechnology is a very dynamic sector of R&D in Ukraine which requests philosophical and ethical reflections. According to the experts’ assessment, the main tendencies in R&D in nanotechnology in Ukraine are corresponds to ones in Europe. At the same time, there is a lack of modern equipment to operate on the nanolevel at list in the research laboratories. Philosophy of nanoscience and nanotechnology, and nanoethics are very new trends of philosophical research and not many philosophers still work in this area in Ukraine. Many of publications are dedicated to the NBIC-technologies and their impacts on the future (transhumanism discourse). There is a strong need for the realistic interpretation of social and ethical problems of nanotechnology taking into account the context and outcomes international debates in this area during the last decade.
Montag, 08. Juli 2013, 18:15 Uhr im Gartensaal des Karlsruher Schlosses
Perfecting the future: sociotechnical imaginaries and the public good
Technological developments have always been oriented toward liberation, by producing futures that will not be held captive to the felt constraints of the present. In this talk, I introduce the concept of sociotechnical imaginaries to explore ongoing changes in the nature of the liberation that societies seek through technology. Postwar imaginaries the world over took as their baseline the need to alleviate certain basic and widely agreed upon human troubles: hunger, disease, lack of mobility, armed conflict, and most crucially poverty and inequality. At the same time, these imaginaries were shaped by underlying cultural commitments, including notions of the public good and how those goods ought to be effectuated or met. With the advent of the genetic and digital eras, imaginaries no longer simply redress needs but seek to transcend human capability. Paying particular attention to developments in Germany and the United States, I ask what this posthuman turn implies for our notions of constitutional governance and the public sphere.
Die Veranstaltung wird im Gartensaal des Schlosses Karlsruhe stattfinden.
Das Kolloquium ist eine öffentliche Abendveranstaltung, die im Rahmen des von Hava Tirosh-Samuelson und J. Benjamin Hurlbut geleiteten Forschungsprojekts "The Transhumanist Imagination: Innovation, Secularization, and Eschatology" des Center for the Study of Religion and Conflict der Arizona State University (ASU-CSRC) stattfindet. Es wird wissenschaftlich vom KIT-ITAS (Christopher Coenen) in Zusammenarbeit mit der ASU organisiert, unterstützt durch das von der John Templeton Foundation geförderte Programm "Religion and Innovation in Human Affairs" (RIHA) der Historical Society an der Universität Boston.
Donnerstag, 11. Juli 2013, 14:00 Uhr
Stand der Energiewende und Monitoring "Energie der Zukunft"
Die deutsche Energiewende ist geprägt durch die Zielsetzungen des Energiekonzepts aus dem Jahr 2010 sowie den energiepolitischen Beschlüssen vom Juni 2011. Ziel ist dabei der Umbau der Energieversorgung Deutschlands hin zu einem hocheffizienten und durch erneuerbare Energien geprägten Energiesystem. Die wichtigsten Zielsetzungen der deutschen Energiepolitik betreffen dabei die Senkung des Ausstoßes von THG-Emissionen, dem Ausstieg aus der Kernenergie, dem Ausbau der erneuerbaren Energien und der Senkung des Primärenergiebedarfs. Darüber hinaus besteht die Energiewende aus einem komplexen Bündel an weitergehenden Zielsetzungen und Maßnahmen.
Um die Entwicklungen des deutschen Energiesystems sowie die Forstschritte aber auch Probleme bei der Erreichung der Energiewendeziele zu überwachen, wurde im Oktober 2011 das Monitoring „Energie der Zukunft“ durch die deutsche Bundesregierung beschlossen. Dieses legt den inhaltlichen Fokus auf die Überprüfung der Zielerreichung des Energie-konzepts und dessen Maßnahmenprogramm. Der Monitoring-Prozess "Energie der Zukunft" wird gemeinsam durch das Bundesministerium für Wirtschaft und Technologie (BMWi) und das Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit (BMU) durchgeführt. Jährlich wird dazu ein faktenbasierter Indikatoren-Bericht erstellt. Alle drei Jahre wird ein umfassenderer Fortschrittsbericht veröffentlicht, dieser erscheint zum ersten Mal im Jahr 2014.
Darüber hinaus wurde eine unabhängige Kommission von Energieexperten einberufen, die den Prozess wissenschaftlich begleitet. Diese unterstützt die Ministerien bei der Erstellung des Monitoring-Konzepts sowie der Auswahl der Indikatoren. Auch die Berichte werden von der Kommission einer wissenschaftlichen Einordnung unterzogen. Die von den Experten erstellte Stellungnahme zum jeweiligen Monitoring-Bericht der Bundesregierung liefert konstruktiv-kritische Analysen von relevanten Entwicklungen, Zielen und Maßnahmen. Zu Beginn des Monitoring-Prozesses wurden zunächst prozedurale und methodische Grundlagen erarbeitet sowie ein System von Indikatoren erstellt. Dieser Prozess und die methodischen Herangehensweisen sowie eine Einschätzung des ersten Monitoring-Berichtes der Bundesregierung und Erläuterungen zur aktuellen Stellungnahme der Expertenkommission werden Inhalt des Vortrags sein.
Montag, 30. September 2013, 14:00 Uhr
Systems Perspectives on Environmental Objectives and Indicators
The Swedish Environmental Protection Agency had identified poor progress towards the National Environmental Objectives (NEO) for the Swedish mountainous areas. Against this background, group modeling with stakeholders was carried out during a year period. About 40 stakeholders attended the group modeling sessions in four modeling sessions. The results indicate that group modeling reduces conflicts between stakeholders and create a more "level playing field" allowing different stakeholders to participate on an equal basis. By attending the sessions, the stakeholders gained a better understanding of the mountain environment and realized previously unidentified causes for stakeholder conflicts and poor NEO achievement. They found that the currently used environmental sub-objectives and environmental indicators to guide work towards the NEO were inadequate. A stakeholder-based proposal for a research program to improve the state of the art and a set of new indicators for the Mountain NEO were developed from a systems perspective. The proposed indicators provide better information on the economic, social and environmental conditions in the mountains and allow some early warning functions with regard to future pressure on the land resource.
Dienstag, 15. Oktober 2013 (Gastvortrag)
Die Schließung des Flughafens Tegel. Ein Teilprojekt von CC-VISAGES
Die vorgestellte Forschung dient als Teilprojekt des übergeordneten CC-VISAGES (climate change – vulnerability inferred through social analysis, geography, and environmental systems) dem Test des Methodenmixes im Zusammenhang mit PPGIS. Die Nützlichkeit und Anwendbarkeit soll an einem gesellschaftlich wie wissenschaftlich relevantem Fallbeispiel, dem Flughafen Tegel (TXL), unter Beweis gestellt werden.
Das Fallbeispiel:
Die Schließung der Berliner innerstädtischen Flughäfen im Kontext der Nichtfertigwerdung des Flughafendrehkreuzes in Schönefeld (BER) ist in Berlin zum Politikum geworden, in dem wirtschaftliche, gesundheitliche und politische Erwägungen ebenso eine Rolle spielen, wie die nostalgischen Erinnerungen an die symbolische Bedeutung von Tempelhof (THF) und Tegel (TXL). Nachdem THF trotz Widerstandes einer Bürgerinitiative am 30.10.2008 geschlossen wurde, richteten sich aller Augen auf die Schließung von TXL, gem. Planbeschluss 1996 sechs (6) Monate nachdem BER eröffnet wäre. Nachdem die Eröffnung sich fortwährend verzögert, ist nun TXL in den Mittelpunkt des Interesses gerückt, gerade wenige Wochen vor der Bundestagswahl.
Das Ziel der Forschung ist mittels Anwendungen eines neuen Methodenmixes aus Q Methodology und Delphi Technique, Q Oracle genannt, existierende unterschiedliche Wahrnehmungen und Meinungen zu dem Problemfeld TXL zu analysieren, die Unterschiede auf Konsensfähigkeit zu testen und diese Daten mittels PPGIS (public participation geografic information system) auf einer Karte zzgl. zu den Umweltgerechtigkeitsindikatoren abzubilden. Es wird gezeigt werden können,
- welche statistisch signifikant verschiedenen Sichtweisen auf den Flughafen bestehen.
- ob ein Kompromiss der verschiedenen Meinungen möglich ist.
- wie ein solcher Kompromiss aussehen könnte.
- wie sich qualiquantitative Daten mittels GIS in einer Gesamtkarte darstellen lassen.
Donnerstag, 17. Oktober 2013 (Gastvortrag)
The Paradigm Shift in (Computational) Modeling. The case of climate and energy models
The advances in computational methods and computational power over the last decades have shaped climatology and energy analysis as they shaped other areas of the sciences: A lot of problems that could only be treated via phenomenological laws on a macro level can now be described by evolution equations of the micro constituents with the help of computer simulations. Computational advances boosted the vogue of micro-reductionistic descriptions in science and engineering. Thereby the micro reductions do not necessarily involve microscopic levels in the literal sense. For instance, global climate models use “micro” evolution equations on spatial scales as large as 200 km in order to predict “macro” quantities like global mean temperature. Macro and micro are understood here as the reduced and the reducing level.
Since long scientists aim to understand or to predict a system's macro behavior by modeling its micro constituents (microreductionism). But it is only since the recent advancement in computational methodology and power that such models have become prevalent in many sciences. Computational power and numerical methods have initiated a shift in research paradigm: micro-reductionistic models become increasingly important in predicting numerical values of macro quantities. Climatology is but one example. Other examples are solid-state physics, the description of phase transitions and of fluid flows, and agent- based models within economics.
In all these cases, the ontological reduction is not under dispute: A gas or fluid is composed of its atoms, just like the climate systems is made up of its constituents, i.e. atmo- hydro, bio-, kryo- and litosphere. I argue, however, that it is important to carefully distinguish ontological reduction from explanatory reduction. Computer simulations often target specific information, namely some quantitative information into macro-level quantities like temperature. I address the question as to when micro-reductionist models can be epistemically successful in the sense that they yield reliable predictions. Drawing on examples from related areas in non-equilibrium statistical mechanics - the semi-classical laser theory and descriptions of hydrodynamic turbulence - I argue that certain explanatory reductions require a separation of the relevant micro scales within the mathematical model that is to be implemented numerically. The relevant scales may be time, length, or energy. The thing to appreciate is that, even in the absence of emergent features, information on the macro variables via micro-reduction may be impossible to obtain. This undermines many prevalent modeling techniques including the currently dominant approaches within climate modeling.
Montag, 28. Oktober 2013, 14:00 Uhr
Innovationsnetzwerke untersuchen: empirische Forschung, Netzwerkanalyse und agentenbasierte Simulation
Die Erwartungen an Investitionen in Wissen, Wissenschaft, Forschung und Entwicklung sind hoch: Politik, Industrie und Gesellschaften erwarten hier „value for money“ – das heisst einen sofortigen Fluss neuer wissensintensiver Produkte und Prozesse mit hohem kommerziellem Nutzen, also gelungene Innovation. Doch oft ist die Enttäuschung vorprogrammiert und legitimatorische Probleme entstehen, wo der erwartete Output so nicht eintrifft. Hier zeigen sich die Begrenzungen von Planbarkeit, Steuerbarkeit und Wirksamkeit von Policy- und Management-Mechanismen im Innovationsbereich. Dann wird manchmal gleich die Wichtigkeit von Wissen und Innovation insgesamt bezweifelt; zumindest macht sich eine gewisse Frustration bezüglich der Nicht-Planbarkeit und Nicht-Vorhersagbarkeit des Innovationsprozesses Luft, der ‘does not seem to compute’ (Nature 2010). Technologische Innovation als Generation neuer, technologisch machbarer, kommerziell realisierbarer Produkte, Prozesse und Organisationsstrukturen entsteht aus einem kontinuierlichen Interaktionsprozess innovativer Akteure wie Universitäten, Forschungseinrichtungen, Wirtschaftsunternehmen, Regierungsabteilungen, Venture-Kapitalgebern und anderen. Diese Akteure produzieren Wissen und tauschen dieses wie auch eine Reihe von anderen Ressourcen wie Finanzkapital in Innovationsnetzwerken aus, welche in institutionelle Bezüge auf lokaler, regionaler, nationaler und internationaler Ebene eingebettet sind. Innovation ist eine emergente Eigenschaft dieser Interaktionen auf der Mikroebene – wenn die Kombination der Akteure, die Kompatibilität ihrer Kompetenzen und ihr kooperatives Verhalten „stimmen“. Keine Gleichung kann vorhersagen, ob dies passiert oder nicht.
In diesem Vortrag wird zunächst (i) kurz darauf eingegangen, dass aus sozialwissenschaftlicher Sicht Innovation in komplexen sozialen Systemen stattfindet, dass Innovationsnetzwerke die relevante Morphologie für die zwischen den Akteuren stattfindenden Prozesse liefern und dass eine Kombination aus empirischer Forschung, sozialer Netzwerkanalyse und agentenbasierter Modellierung geeignet ist, Innovationsstrukturen und -dynamiken sowohl auf der Mikro- als auch auf der Makroebene zu untersuchen und zu verstehen. Daran anschließend wird (ii) auf den letzten Teil des methodologischen Rahmens besonders Bezug genommen, die agentenbasierte Modellierung (ABM) bzw. die Sozialsimulation, da diese im Forschungsfeld die bislang unbekannteste ist. Agentenbasierte Simulationen beinhalten Produktionsalgorithmen für soziale Zusammenhänge: sie zeigen, ob und unter welchen Bedingungen ein spezifisches Kommunikations- bzw. Handlungsmuster auf der Mikroebene ausreicht, um ein Makroebenen-Phänomen wie Innovation zu erzeugen. Solche Simulationen ermöglichen es, wie in einem Labor mit sozialen Phänomenen zu experimentieren, was empirisch aus methodologischen Gründen ausgeschlossen ist. Mit Hilfe dieses Instrumentariums lassen sich Innovationsdynamiken in komplexen sozialen Systemen mitsamt ihrer Anknüpfungspunkte für Design, Intervention und Kontrolle analysieren. ABM von Innovationssystemen kann damit zum Beispiel Politikakteuren helfen, ihre Erwartungen zum Innovationsverhalten und zur Innovationsperformanz zu präzisieren und Extrapolationen und Szenarios bezüglicher möglicher „Zukünfte“ und Entwicklungspfade von Innovationssystemen bereitstellen. Die Vorteile, Techniken der Sozialsimulation in der Innovationsforschung zu nutzen, sind bereits durch zahlreiche agentenbasierte Modelle belegt. Diese Modelle bilden die Interaktion von Wissen und Akteuren, von Outputs und Organisationen, von Netzwerkformation und -evolution ab. Sie simulieren die Wechselbeziehungen zwischen existierenden Innovationspolitiken und –förderstrategien, zukünftige Innovationspolitikszenarios und alternative Technologiepfade zur Erhöhung des Innovationspotentials. Der Vortrag stellt (iii) die für diese Zwecke entwickelte Simulationsplattform SKIN (Simulating Knowledge Dynamics in Innovation Networks) in einer Reihe verschiedener Anwendungen zu Forschungs- und Innovationsnetzwerken vor und diskutiert Vorteile und Limitierungen dieses Ansatzes.
Montag, 11. November 2013, 14:00 Uhr
Technikfolgenabschätzung beim Deutschen Bundestag
Das TAB ist den Experten der Technikfolgenabschätzung im Prinzip aus der Literatur bekannt.
Doch wie funktioniert diese Kopplung der Systeme Wissenschaft und Politik in der Praxis? Was sind die Motive der Bundestagsabgeordneten? Wie ist diese einzigartige wissenschaftliche Beratungseinrichtung in das Ensemble der Gremien eingebunden? Welche Prinzipien und Prozesse sind konstitutiv für das institutionelle Design? Was und wer nützt den wissenschaftlichen Rat wofür?
In den zwei Jahrzehnten ihrer Mitgliedschaft im Deutschen Bundestag hat Ulla Burchardt reichhaltige Erfahrungen im Umgang mit wissenschaftlicher Politikberatung gesammelt, und als langjährige Vorsitzende des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung die parlamentarische TA mitgestaltet.