KI-Risiken: Ausschreibung für Expertengutachten

Das ITAS-Projekt „Systemische und existenzielle Risiken der künstlichen Intelligenz“ schreibt mehrere Gutachten aus – zu systemischen Risiken der interagierenden KI, den Umwelteffekten und den technischen Voraussetzungen der existenziellen Risiken der KI.
SERI Logo
Systemische und existenzielle Risiken der künstlichen Intelligenz.

Zwei Gutachten sind im Teilprojekt „Systemische Risiken der Künstlichen Intelligenz“ angesiedelt

Systemische Umweltrisiken künstlicher Intelligenz:

Die Entwicklung und Einführung von KI hat sich in den letzten Jahren dramatisch beschleunigt und es gibt keine Anzeichen für eine Verlangsamung. Gleichzeitig verbraucht KI enorme Mengen an Ressourcen und kann komplexe Sekundäreffekte haben, die systemische Risiken für die Umwelt mit sich bringen. In dieser Ausschreibung sucht das Projekt daher Expertinnen und Experten, die die Ursachen, Entwicklungspfade, das Ausmaß und die Steuerungsmaßnahmen für diese Risiken bewerten können. Zur Ausschreibung (PDF)

Systemische Risiken interagierender künstlicher Intelligenz

In jüngster Zeit hat die agentenbasierte KI die Aufmerksamkeit großer KI-Unternehmen auf sich gezogen. Von KI-Agenten wird erwartet, dass sie bei bestimmten Aufgaben, für die sie zuvor trainiert wurden, selbständig assistieren oder sie autonom ausführen. Ohne die Lehren aus früheren Automatisierungswellen außer Acht zu lassen, werden auch hier Expertinnen und Experten dazu aufgerufen, die Ursachen, Entwicklungspfade, das Ausmaß und die Governance-Maßnahmen für systemische Risiken dieser neuesten Iteration der interagierenden KI zu bewerten. Zur Ausschreibung (PDF)

Ein weiteres Gutachten ist im Rahmen des Teilprojekts „Unkontrollierbare künstliche Intelligenz: ein existenzielles Risiko?“ angesiedelt:

Existenzielle Risiken der KI: technische Voraussetzungen

Diskussionen über mögliche existenzielle Risiken im Zusammenhang mit KI finden zunehmend Eingang in wissenschaftliche und politische Debatten. Im Mittelpunkt stehen dabei spekulative Szenarien, die KI als potenziell unkontrollierbar, sich ständig selbst verbessernd, menschenfeindlich und als Bedrohung für das Überleben der Menschheit beschreiben. Ziel des Gutachtens ist es, zu untersuchen, welche Bedingungen für das Eintreten solcher Szenarien erfüllt sein müssen und inwieweit diese Bedingungen bereits erfüllt sind. Zur Ausschreibung (PDF)

Die Frist für die Einreichung von Vorschlägen für alle Expertengutachten endet am 31. März 2025. (06.03.2025)

 

Weiterführende Informationen: