„Der amerikanische Medienwissenschaftler John Pavlik analysierte im Dialog mit ChatGPT die Frage, was es heißt, kreativ zu sein und ob ein Computer kreativ sein könne. ChatGPT antwortete, dass kreativ sein bedeute, die Fähigkeit zu besitzen, neue und originelle Ideen zu generieren oder Verknüpfungen zwischen Ideen herzustellen, die neu und wertvoll sind“
Ulrike Aumüller, Moritz Larsen, Doris Weßels, Selbstgeschrieben war gestern? KI-Programme zur Textproduktion (2023) [1]
In diesem Beitrag soll es nicht um die Frage gehen, ob Computer das allein leisten können. In welcher Weise menschliche Kreativität zusammen mit der Leistung eines Computers oder gegen sie ankommt, das wird kontrovers diskutiert. Welche Aspekte aber bei den Überlegungen, auch bei der Umsetzung von Ideen zu tragfähigem Betrieb vor dem Hintergrund von GPTs eine Rolle spielen, darum soll es hier in drei Wortpaaren gehen.
Jeder Text setzt einen Kontext voraus, sagt die niederländische Linguistin Franck kurz wie präzise. [2]
Der Blick auf den Kontext spielt eine bedeutende Rolle im Blick auf Chatbots, auf Übersetzungstools sowie auf Large Language Models (LLM) wie zum Beispiel GPT bzw. dessen Anwendung unter ChatGPT, dabei ist auch der so genannte Kotext zu berücksichtigen.
Geht man von rein schriftlich verfassten Texten aus, dann bilden alle Textteile, die darin in einer bestimmten Syntax miteinander verbunden sind, den Kotext: ein Wort und seine unmittelbare Umgebung, ein Satz mit dem vorhergehenden und dem nachfolgenden. Der Kotext ist die erste Schicht des gesamten Kontextes, die textinterne Textumgebung. Studien ergeben, dass Chatbots und Übersetzungstools Kotexte nicht ausreichend berücksichtigen. Vor allem bei Übersetzungen zeigt sich eine Gewichtung hin zur Wort-für-Wort-Bearbeitung und „dass das maschinelle Artefakt ein Translat durch wortweise, ggf. phrasenweise Übertragung ohne Berücksichtigung von Kotext und Syntax erzeugt“. [3]
Wer digitale Tools, vor allem LLM, Chatbots und Übersetzungstools nutzt, lässt dabei nicht nur den Kotext wachsen, sondern erzeugt sequenziell neuen Kontext. Er ist die äußere Textumgebung und Voraussetzung für das richtige Verständnis von Sinn und Inhalt, „eine Art Halo des Textes“ (Franck), der auch anderes sein kann als geschriebener Text. Da hinein spielen alle Faktoren, die ihn bestimmen, auch die Vorstellung von sozialen und geschlechtsspezifischen Rollen.
In einem digitalen Gesprächsverlauf entsteht so eine eigene soziale Wirklichkeit (Franck, 1328-1330). Die Versuchung ist groß, gerade bei kreativen Prozessen unter Nutzung digitaler Sprachtools den Blick auf den eigenen Kontext, manchmal sogar nur den eigenen Kotext zu verengen. Bei einer Produktidee kann dies fatale Folgen haben und dem gut begonnenen Projekt früh enge Grenzen setzen. Weite entsteht bei der kollaborativen Erarbeitung von Prompts, bei korrigierenden Blicken auf das eigene Subsystem, bei echter Referentialität als Form der Digitalität (Felix Stalder).
Die digital geformte kreative Weite liegt irgendwann ausgebreitet in Datensätzen, Boards und Tabellen bereit. Digitale Tools verbreitern die Basis der Optionen, insbesondere künstlich intelligente Tools dienen als „Inspirationsquelle“. [4]
Jetzt aber gilt es zu entscheiden. Dabei steht der eigene Klärungsprozess an, bis zu welchem Grad digitale Tools bei Entscheidungen den Ausschlag geben: Werden sie im Prozess des Decision Making einbezogen oder wird ihnen auch das Decision Taking überlassen? Dient die Datensammlung dem Menschen lediglich dazu, sich ein Bild von den Möglichkeiten zu verschaffen, trifft er die finale Entscheidung selbst, wird sie statistisch, stochastisch oder algorithmisch per algorithmic decision making systems (ADMS) getroffen?
Laut dem Medienwissenschaftler Roberto Simanowski steht die Gesellschaft „inmitten eines unaufhaltsamen Souveränitätstransfers, einer schleichenden Übergabe der Entscheidungsmacht vom Menschen an die Maschine“[5]. Ist das ein Fluch oder eine Erlösung? Breitere Datenmengen erhöhen den Entscheidungsdruck, sei es, dass die Datenlage unübersichtlich ist, sei es, dass de facto größeres Wissen generiert wurde oder aber nur suggeriert wird, dass der Mensch zu diesem Zeitpunkt gar nicht mehr die Verarbeitungsleistung aufweist, entscheiden zu können.
Wer eine Entscheidung trifft, tut dies im Bewusstsein, dabei möglicherweise einen Fehler zu machen. Verantwortung birgt Risiken. Digital getroffene Entscheidungen können nicht nur falsch sein, sondern im schlechteren Fall auch auf erkennbare Weise intransparent und daher unbefriedigend.
Bei algorithmischem decision taking „befindet sich die statistik-basierte KI in einer Zwickmühle, zumindest so lange sie noch im black box-Betrieb arbeitet. Dazu muss man nämlich lediglich nach einer ersten Frage, die so gut wie möglich von der KI beantwortet sein kann, die nächste Frage hinterherschicken: „Warum?“ […] Fragen der Art Woher weißt Du das?, Seit wann weißt Du das?, Weißt Du das sicher? etc., die unser Wissen reflektieren, wird man mit rein statistisch gelernten Antwortschemata nicht beikommen“. [6]
Nicht zuletzt spielt dabei die Frage eine Rolle, was denn der Mensch ist, wenn er digitale Tools nutzt. Dazu gibt es eine Vielzahl philosophischer und theologischer Abhandlungen. Eine anregende Frage in diesem Zusammenhang ist diejenige nach „Innerlichkeit“ im Zusammenhang mit „Interaktivität“. [7] Wenn in der alltäglichen Wahrnehmung der Begriff der Innerlichkeit mit „Tiefe“ assoziiert wird, die Interaktivität hingegen stärker mit „Oberflächlichkeit“, ist dann der aktive Umgang mit digitalen Tools und Kulturelementen automatisch oberflächlich?
Wer mit digitalen Daten umgeht und dies mit dem Ziel, sie sinnvoll zu nutzen, springt nicht nur von Netzknoten zu Netzknoten, sondern versucht, Tiefe und Interaktivität zu verbinden (Spadaro). Die Herausforderung, die eigene Menschlichkeit in die Prozesse einzubringen, ist besonders für Startups groß: Empathie ist im Gründungsgeschehen notwendig, um Kundenwünsche zu verstehen und einschätzen zu können, ob die eigene Produktidee auf tatsächlichen Bedarf trifft. Andererseits können hohe Empathiewerte Entscheidungsprozesse negativ beeinflussen, ängstlich machen und Markteinführungen verhindern. Das wird an die Digitalität zurückgespielt: KI-Tools können eine empathische Haltung regulieren. [8]
Alle drei Wortpaare lassen erkennen, dass nur beim Menschen Interaktion aus einer Innerlichkeit folgen kann und aus ihrer Perspektive geleitet wird (Spadaro). Diese Sicht schaut nicht am Kontext vorbei und kann in der Kombination von Tiefe und Interaktivität zu partizipativen Entscheidungen führen. Empathie hat eine „dunkle Seite“, ist aber notwendig, um die Menschen und ihre Märkte zu verstehen. Wie wertvolle Kreativität entstehen kann ohne diese Fähigkeiten, ist eine Frage für die weitere Diskussion.
[1] Ulrike Aumüller, Moritz Larsen, Doris Weßels, Selbstgeschrieben war gestern? KI-Programme zur Textproduktion, in: Tobias Hochscherf, Martin Lätzel (Hg.), KI & Kultur: Chimäre oder Chance? Wachholtz Verlag, Kiel und Hamburg, 171–178, hier: 172 mit Bezug auf John V. Pavlik, Considering the Implications of Generative AI for Journalism and Media Education].
[2] Dorothea Franck, Kontext und Kotext, in: Marcello Dascal, Dietfried Gerhardus, Kuno Lorenz, Georg Meggle (Hg), Sprachphilosophie. Ein internationales Handbuch zeitgenössischer Forschung. Berlin und New York 1996, 1323-1335, hier: 1325].
[3] Alexander Holste, Automatisierte Wissenskommunikation, in: Helle Dam Jensen, Alexander Holste (Hg.), Wissenskommunikation: maschinell – mehrsprachig – multimodal / Knowledge Communication AMP: Automated – Multimodal – Polylingual, Berlin 2023, 1, 316].
[4] Ulrike Aumüller, Moritz Larsen, Doris Weßels, 174.
[5] Katharina Klöcker, Erlösung von der Last der Entscheidung? Die Algorithmisierung der Gesellschaft in theologisch-ethischer Reflexion, in: Amosinternational 16 (2022), Heft 3, 19-25, hier: 19]
[6] Klaus Mainzer, Reinhard Kahle, Grenzen der KI – theoretisch, praktisch, ethisch, Berlin 2022, 85f.
[7] Antonio Spadaro, The Spiritual Challenges of Digital Culture, in: Dicasterium de Cultura et Educatione, Civitas Vaticana, März 2023, 213-221, hier: 219).
[8] Konstantin Kurz, Carolin Bock, Leonard Hanschur, Flip the tweet – the two-sided coin of entrepreneurial empathy and its ambiguous influence on new product development, Journal of Business Venturing, 39, Issue 2, 2024, https://doi.org/10.1016/j.jbusvent.2023.106378, https://www.sciencedirect.com/science/article/pii/S0883902623000927.
Dr. Angela Reinders ist Direktorin der Bischöflichen Akademie des Bistums Aachen. Im digitalHUB ist sie die Sprecherin der Fokusgruppe Ethik.