
Dorothea Winter: „Die conditio humana bleibt auch im digitalen Zeitalter bestehen.“
In einer Ära, da Algorithmen die Entscheidungen von Staaten lenken und künstliche Intelligenz die Konturen unserer Gesellschaft neu zeichnet, liegt die Spannung in der Differenz zwischen Mensch und Maschine. Maschinen handeln nicht autonom; sie gehorchen programmierten Imperativen, unfähig, Gründe zu durchdringen oder Verantwortung zu tragen – ein Prinzip, das Julian Nida-Rümelin, Philosoph und ehemaliger bayerischer Kultusminister (1995–2001), in seinem Werk „Digitale Humanismus“ (2018) scharf konturiert.
Die Humanistische Hochschule Berlin wurde 2022 gegründet. Nida-Rümelin’s wissenschaftliche Mitarbeiterin Dorothea Winter ist für den Masterstudiengang Angewandte Ethik zuständig, ein Kurs, der in vier Semestern für Fachkräfte aus Medizin, Wirtschaft und Verwaltung konzipiert ist, um die ethischen Zäsuren der Digitalisierung zu ergründen. Verankert in Nida-Rümelins Forderung nach einer Technologie, die menschliche Autorschaft stärkt, soll der Kurs eine Arena sein, wo "die conditio humana gegen die kalte Logik der Maschinen verteidigt wird“. In diesem Interview geht es um eine dringliche Auseinandersetzung mit Racial Profiling, Kreativitätsverlust und der Gestaltbarkeit digitaler Macht. Tiefgreifende Fragen werden reflektiert: Wird unsere Kreativität durch Maschinen ersetzt? Droht der Mensch zum Knecht der Technologie zu werden? Bleibt die conditio humana – die Fähigkeit zu moralischem Urteil und Verantwortung – im digitalen Zeitalter bestehen?
————-
19. Oktober 2025
IN FOCUS/ATF
Name: Dorothea Winter Entrepreneur, Author „Europas Resilienz für Frieden, Freiheit und Wohlstand“
"Sie stehen in ihrem Alltag vor ethischen Dilemmata, die sich durch diese Krisen noch zuspitzen.“
Frau Winter, die Humanistischen Hochschule und damit auch der Studiengang Angewandte Ethik wurden 2022 gegründet – wie war die Resonanz in den ersten vier Jahren?
Die Resonanz war enorm – und das hängt stark mit der gesellschaftlichen Situation zusammen. Wir leben in einer Zeit multipler Krisen: Klimawandel, Digitalisierung, geopolitische Konflikte, wachsende soziale Spaltungen, Vertrauensverlust in demokratische Institutionen. Menschen spüren, dass rein technokratische Antworten nicht mehr ausreichen. Unsere Studierenden kommen alle berufsbegleitend und aus sehr unterschiedlichen Praxisfeldern – Medizin, Soziale Arbeit, Bildung, Wirtschaft, Verwaltung, Kultur. Und doch eint sie eine Erfahrung: Sie stehen in ihrem Alltag vor ethischen Dilemmata, die sich durch diese Krisen noch zuspitzen. Sie bringen unterschiedliche Perspektiven mit, aber es sind die gleichen Grundfragen, die sie bewegen: Wie lässt sich Verantwortung übernehmen, ohne zu überfordern? Wie können wir Menschlichkeit in Organisationen und Institutionen sichern? Wie gestalten wir Technik, Politik und Ökonomie so, dass sie nicht gegen, sondern für das menschliche Leben wirken? Genau dieses geteilte Bedürfnis macht die Resonanz so stark.
Was hoffen Sie mit dem Studiengang „Angewandte Ethik“ in der Gesellschaft zu erreichen?
Uns geht es nicht darum, „Weisheiten von oben“ zu verkünden, sondern Räume für Mündigkeit zu eröffnen. Digitale Transformation, Klimawandel, Demokratiekrisen – das alles sind Fragen, die wir nur kollektiv und reflektiert lösen können. Ich hoffe, dass wir so etwas wie eine Übersetzungsleistung schaffen: zwischen Philosophie und Praxis, zwischen Theorie und Alltag. Wenn Absolvent:innen rausgehen und nicht nur wissen, was Kant und Conradi schreiben, sondern in einem Unternehmen, einer NGO oder einer Verwaltung sagen können: „Moment, wir müssen hier Verantwortung breiter denken“ – dann haben wir etwas erreicht.
„Genau diese Differenz – die conditio humana – bleibt auch im digitalen Zeitalter bestehen.“
„Es wäre ein Kategorienfehler, ihnen Autorschaft oder gar Verantwortung zuzuschreiben.“
Prof. Nida-Rümelins Buch „Digitale Humanismus“ aus 2018 plädiert für eine Technologie, die menschliche Autorschaft stärkt. Können Sie die Lehren des „Digitalen Humanismus“ für die Leserschaft erläutern? Wie haben Sie seine Ideen bei dem Studiengang umgesetzt?
Nida-Rümelin macht im Digitalen Humanismus sehr klar: Maschinen handeln nicht autonom. Sie folgen programmierten Regeln, während Menschen in der Lage sind, Gründe zu verstehen, abzuwägen und auf dieser Basis Verantwortung zu übernehmen. Genau diese Differenz – die conditio humana – bleibt auch im digitalen Zeitalter bestehen. Er betont außerdem: Digitale Systeme besitzen keine moralische Urteilskraft. Es wäre ein Kategorienfehler, ihnen Autorschaft oder gar Verantwortung zuzuschreiben. KI ist Werkzeug, kein Subjekt.
„Und er warnt ausdrücklich vor einer Ideologie, die Maschinen überhöht und sie zu Ersatz-Personen verklärt – das führt in die Irre.“
Darin unterscheidet er sich auch deutlich von transhumanistischen Fantasien, die suggerieren, wir könnten oder müssten „den Menschen überwinden“. Digitaler Humanismus heißt für ihn daher: Wir gestalten die Digitalisierung aktiv und normativ. Technik darf nicht den Menschen formen, sondern muss so entwickelt und reguliert werden, dass sie Freiheit, Demokratie, kulturelle Vielfalt und Teilhabe stärkt. Und er warnt ausdrücklich vor einer Ideologie, die Maschinen überhöht und sie zu Ersatz-Personen verklärt – das führt in die Irre.
Wir greifen diese Leitlinien im Studium auf, indem wir nicht nur über technische Möglichkeiten
reden, sondern über institutionelle und politische Rahmenbedingungen. Unsere berufsbegleitenden Studierenden bringen Erfahrungen aus Medizin, Verwaltung, Bildung oder Wirtschaft mit. Sie lernen, digitale Systeme nicht nur als Tools zu sehen, sondern kritisch zu prüfen: Fördert dieses System Autonomie und Verantwortung – oder unterminiert es sie? Damit wird der „Digitale Humanismus“ von einer Theorie zu einem praktischen Kompass im beruflichen Alltag.
„Wenn eine KI etwa anhand von Aufenthaltsort, sozioökonomischem Hintergrund oder äußerem Erscheinungsbild Risikoprofile erstellt, werden Menschen präventiv behandelt wie potenzielle Täter:innen (…) Das widerspricht der Unschuldsvermutung, einem der zentralen rechtsstaatlichen Prinzipien.“
Zu Ihrem Interview auf Arriba Media. Können Sie die Gefahren des Racial Profiling durch KI nochmals erläutern? Wie sollte das Sicherheitsbedürfnis und vor allem die Aufklärung von Straftaten denn sonst gewährleistet werden?
Die Gefahren liegen vor allem darin, dass KI nicht „neutral“ ist, sondern vorhandene Vorurteile verstärkt. Ein Beispiel: Wenn eine Polizei in der Vergangenheit bestimmte Viertel besonders stark kontrolliert hat, finden sich diese Überwachungsdaten später auch in den Trainingsdaten einer KI. Das System „lernt“ daraus: Dort gibt es häufiger Kriminalität. In der Folge wird genau dieses Viertel wieder stärker überwacht. So entsteht eine Rückkopplungsschleife, die nichts über die tatsächliche Kriminalität aussagt, aber bestimmte Gruppen dauerhaft unter Generalverdacht stellt.
Hinzu kommt die Gefahr der sogenannten Vorratsverdächtigung. Digitale Systeme erkennen Muster, aber ohne Kontext. Wenn eine KI etwa anhand von Aufenthaltsort, sozioökonomischem Hintergrund oder äußerem Erscheinungsbild Risikoprofile erstellt, werden Menschen präventiv behandelt wie potenzielle Täter:innen – ohne dass sie überhaupt etwas getan haben. Das widerspricht der Unschuldsvermutung, einem der zentralen rechtsstaatlichen Prinzipien.
„Ein weiteres Problem ist die Intransparenz. Viele dieser Systeme sind Black Boxes“
Ein weiteres Problem ist die Intransparenz. Viele dieser Systeme sind Black Boxes: Selbst Fachleute können oft nicht genau nachvollziehen, warum eine Person auffällig markiert wurde. Und im Ernstfall bleibt die Frage offen: Wer trägt Verantwortung? Die Entwicklerfirma? Die Polizei? Der Staat? Genau hier entstehen gefährliche Grauzonen.
Natürlich haben Menschen ein berechtigtes Bedürfnis nach Sicherheit. Aber Sicherheit darf nicht auf Kosten von Grundrechten organisiert werden. Effizienz ist kein Selbstzweck. Bessere Aufklärung gelingt nicht durch Generalverdacht, sondern durch gezielte Ermittlungsarbeit – rechtsstaatlich kontrolliert, mit Transparenz, richterlicher Aufsicht und Korrekturmöglichkeiten.
„Wenn man es zuspitzt: Eine Gesellschaft wird nicht dadurch sicherer, dass sie bestimmte Gruppen immer härter überwacht.“
Wenn man es zuspitzt: Eine Gesellschaft wird nicht dadurch sicherer, dass sie bestimmte Gruppen immer härter überwacht. Sie wird sicherer, wenn Vertrauen, Rechtsstaatlichkeit und Grundrechte auch im digitalen Zeitalter gelten. KI kann da durchaus unterstützen – aber nur, wenn sie reguliert, transparent und demokratisch eingebettet ist.
„Wenn wir uns also „unterwerfen“, dann nicht der KI selbst, sondern den ökonomischen und politischen Strukturen, die ihren Einsatz bestimmen.“
In Ihrem Interview mit der Telekom prognostizieren Sie, die Menschen würden nicht zu „Knechten der KI“ werden und die KI würde uns vor allem im Bereich der Kreativität nichts wegschnappen. Können Sie dies für die Leserschaft erläutern?
Das Bild vom „Knecht“ ist eigentlich irreführend. Maschinen haben ja keine eigenen Wünsche oder Absichten. Sie begehren nichts, sie wollen nichts. Wenn wir uns also „unterwerfen“, dann nicht der KI selbst, sondern den ökonomischen und politischen Strukturen, die ihren Einsatz bestimmen. Die Maschine ist ein Werkzeug – wie wir sie verwenden, ist eine Frage der Gestaltung.
„Das heißt aber nicht, dass Kreativität verschwindet. Sie verändert sich.“
Gerade im Bereich der Kreativität sieht man das deutlich. KI-Systeme wie GPT oder Midjourney können Texte, Bilder oder Musik erzeugen, die verblüffend wirken. Aber sie tun das, indem sie Muster in vorhandenen Daten imitieren. Was fehlt, ist der biografische Resonanzraum. Wenn uns ein Gedicht von Rilke oder ein Gemälde von Käthe Kollwitz berührt, dann deshalb, weil in diesen Werken existenzielle Erfahrung, Leid, Hoffnung, Weltbezug spürbar werden. Das kann eine Maschine nicht haben. Sie kann imitieren – aber nicht existieren.
Das heißt aber nicht, dass Kreativität verschwindet. Sie verändert sich. Ein Beispiel: Früher galt das Schreiben eines Artikels oder Essays als genuin menschliche Aufgabe. Heute kann eine KI Rohmaterial liefern. Der kreative Akt liegt dann stärker im Kuratieren, Bewerten, Weiterdenken. Ähnlich in der Musik: KI kann Melodien generieren, aber die Entscheidung, was einen Song wirklich trägt, welche Brüche, Emotionen oder kulturellen Bezüge darin stecken – das bleibt menschlich.
Ich finde sogar: KI kann uns kreative Freiheit eröffnen. Wenn Routinetätigkeiten automatisiert werden, haben wir mehr Zeit, uns mit der Frage zu beschäftigen: Was wollen wir eigentlich sagen? Was macht uns als Autor:innen unverwechselbar? In diesem Sinne kann KI eine produktive Irritation sein – sie zwingt uns, über den Kern unserer Kreativität neu nachzudenken. Die eigentliche Gefahr liegt nicht darin, dass die Maschine uns „übernimmt“, sondern dass Märkte und Plattformen den kreativen Prozess rein ökonomisch verwerten. Wenn KI-Bilder Künstler:innen verdrängen, dann nicht, weil die Maschine besser malt, sondern weil Geschäftsmodelle menschliche Arbeit entwerten. Das ist eine gesellschaftliche und politische
Frage – nicht eine technische.
„Darum sage ich: Wir werden keine Knechte der KI, solange wir uns als Gesellschaft
nicht dazu machen.
Kreativität bleibt zutiefst menschlich, weil sie mit Erfahrung, Leiblichkeit und Verantwortung verknüpft ist. “
Darum sage ich: Wir werden keine Knechte der KI, solange wir uns als Gesellschaft nicht dazu machen. Kreativität bleibt zutiefst menschlich, weil sie mit Erfahrung, Leiblichkeit und Verantwortung verknüpft ist. KI kann uns helfen, inspirieren, herausfordern – aber sie ersetzt nicht das schöpferische Moment.
„Das führt zu einer entscheidenden Frage: Welche Tätigkeiten wollen wir bewusst in menschlicher Hand behalten, auch wenn eine Maschine sie technisch übernehmen könnte?"
Wie argumentieren Sie als Ethikerin gegenüber Menschen, die durch KI ihre Jobs verlieren – etwa Kassenkräfte in Supermärkten oder Journalisten in Redaktionen. Wie kann Digitalisierung dennoch humanistisch sein?
Zuerst einmal: Die Sorgen sind real. Doch die Prognosen gehen auseinander: Manche malen das Bild einer massiven Massenarbeitslosigkeit, andere sehen eher punktuelle Verschiebungen. Was sich abzeichnet, ist: Es werden weniger komplette Jobs verschwinden, sondern vielmehr Tätigkeiten innerhalb von Berufen werden sich verändern. Ein Beispiel: Im Journalismus schreibt die KI vielleicht die Börsenmeldung in Sekunden. Aber die investigativen Recherchen, das Einordnen politischer Ereignisse oder das Gespräch mit Quellen – das bleibt menschliche Arbeit.
„Humanistisch heißt also nicht,
Technik reflexhaft zu verteufeln.
Es heißt, sie in den Dienst menschlicher Autonomie und Würde zu stellen.“
Oder nehmen wir den Bereich Recht: KI kann Standardverträge prüfen oder Musterfälle sortieren. Aber die Abwägung im Einzelfall, die juristische Argumentation in einem Prozess – das wird nicht einfach automatisiert. Besonders spannend sind die Chancen in der Medizin. KI kann Hautkrebs-Screenings deutlich präziser machen, weil sie Abertausende Bilder von Muttermalen analysiert und kleinste Abweichungen erkennt, die ein menschliches Auge übersehen würde. In der Psychotherapie gibt es erste Ansätze mit VR-Brillen und KI-gestützten Simulationen, die Menschen mit Traumaerfahrungen in geschützten, kontrollierten Umgebungen neue Zugänge eröffnen. Das heißt: KI kann Ärzt:innen und Therapeut:innen entlasten und Patient:innen neue Möglichkeiten geben – aber sie ersetzt nicht das Vertrauensverhältnis, die Empathie, die soziale Beziehung.
„Digitalisierung ist kein Schicksal, sie ist gestaltbar – und genau darin liegt die Verantwortung unserer Zeit.“
Das führt zu einer entscheidenden Frage: Welche Tätigkeiten wollen wir bewusst in menschlicher Hand behalten, auch wenn eine Maschine sie technisch übernehmen könnte? Ein Beispiel ist die Pflege. Natürlich könnten Roboter künftig viele Handgriffe übernehmen – aber wollen wir, dass Menschen von Maschinen vorgelesen bekommen? Wahrscheinlich nicht. Wollen wir dagegen, dass Pflegekräfte durch robotische Hebearme unterstützt werden, um Patient:innen rückenschonend zu bewegen? Unbedingt ja. Das ist ein Beispiel dafür, wie Technik die menschliche Arbeit nicht verdrängt, sondern erleichtert und besser macht.
Humanistisch heißt also nicht, Technik reflexhaft zu verteufeln. Es heißt, sie in den Dienst menschlicher Autonomie und Würde zu stellen. Das bedeutet: Wir brauchen gesellschaftliche Debatten darüber, wo KI sinnvoll unterstützen darf und wo wir auf menschliche Begegnung, Urteilskraft und Kreativität nicht verzichten wollen. Digitalisierung ist kein Schicksal, sie ist gestaltbar – und genau darin liegt die Verantwortung unserer Zeit.
———-
TOP STORIES
DÜSSELDORF
Dr Bastian Fleermann: ‘From the first to the very last day in Düsseldorf, there was resistance from very courageous men and women, from very different directions.’
_____________
ENVIRONMENT
007: Who is Paul Watson and why was he arrested?
_____________
FREEDOM OF SPEACH
Julian Assange und die Pressefreiheit. Eine kleine Chronik (DE)
_____________
DÜSSELDORF OPERA
The surprising switch of course
_____________
PHOTOGRAPHY
Without censorship: World Press Photo publishes the regional winners of the 2024 photo competition
_____________
FLORENCE
_____________
April 2024
DÜSSELDORF
Controversy surrounding the Düsseldorf Photo Biennale
_____________
WAR
March 2024
_____________
ISRAEL
November 2023
_____________
ENGLISH CHRISTMAS
10 years of Glow Wild at Kew Wakehurst.
October 2023
_____________
TRIENNALE MILANO
Pierpaolo Piccioli explains his fascination with art.
_____________
NEW MUSEUMS
29 May 2023
_____________
NEW MUSEUMS
is coming in big steps.The Bernd and Hilla Becher Prize will be awarded for the first time.
19 May, 2023
_____________
VISIONS, ARCHITECTURE
MARCH 10, 2023
_____________
CHECK THE THINGS YOU WANT TO THROW AWAY
HA Schult's Trash People at the Circular Valley Forum in Wuppertal on 18 November 2022.
NOVEMBER 19, 2022
_____________
THE OPERA OF THE FUTURE
Düsseldorf, capital of North Rhine-Westphalia will receive the opera house of the future.
FEBRUARY 15, 2023
_____________
FLORENCE
The extraordinary museums of Florence in 2023.
JANUARY 1, 2023
_____________
DÜSSELDORF
DECEMBER 11, 2022
RELATED TALKS


