Wenn Künstliche Intelligenz mitforscht: Chancen und Grenzen im wissenschaftlichen Arbeiten

Sprachmodelle wie ChatGPT verändern, wie wir denken, schreiben und forschen. Sie liefern Ideen, strukturieren Inhalte und sparen Zeit, stellen uns aber auch vor neue Herausforderungen. Dieser Beitrag analysiert, wie KI Forschung bereichern kann, ohne Integrität zu verlieren.

Wenn Künstliche Intelligenz mitforscht: Chancen und Grenzen im wissenschaftlichen Arbeiten
Photo by Emiliano Vittoriosi / Unsplash

Die Anwendung von Künstlicher Intelligenz (KI) zur Erstellung wissenschaftlicher Beiträge erlebt seit einigen Jahren einen bemerkenswerten Aufschwung. Sprachmodelle wie ChatGPT sind dazu fähig, innerhalb weniger Sekunden kohärente, gut strukturierte Texte zu erzeugen, die in vielen Fällen eine solide Grundlage für wissenschaftliches Arbeiten darstellen können. Die Anwendungsbereiche umfassen die Unterstützung bei der Generierung von Ideen, die Strukturierung komplexer Inhalte sowie die sprachliche Ausformulierung. Allerdings ist ihr Einsatz nicht ohne Einschränkungen und geht mit einer Reihe von Herausforderungen einher, die einer kritischen Betrachtung zu unterziehen sind.

Eine wesentliche praktische Stärke von KI-basierten Textgeneratoren liegt in ihrer hohen Produktionsgeschwindigkeit. Dies kann für Forschende oder Studierende insbesondere in der Planungs- und Konzeptionsphase von Projekten eine erhebliche Zeitersparnis bedeuten. ChatGPT kann beispielsweise dazu beitragen, dass ein erster Gliederungsvorschlag entwickelt wird, zentrale Themenbereiche identifiziert werden oder theoretische Hintergründe skizziert werden. Auch beim Umformulieren, Vereinfachen oder sprachlichen Glätten von Texten erweist sich die KI als nützlich, etwa um den Lesefluss zu verbessern oder die Formulierung von Fachjargon für ein bestimmtes Publikum zu optimieren. Darüber hinaus kann das Tool als Sparringspartner für gedankliche Auseinandersetzungen fungieren. Es besteht die Möglichkeit einer gezielten Fragestellung nach alternativen Perspektiven, exemplarischen Fällen oder noch nicht ausreichend untersuchten Forschungsgebieten, was die Förderung einer kreativen und kritischen Auseinandersetzung mit einem Thema unterstützt.

Ein weiterer praktischer Vorteil besteht in der Möglichkeit, die KI zur Vorrecherche einzusetzen. Obwohl ChatGPT nicht im eigentlichen Sinne "recherchiert", können aufgrund seines umfangreichen Wissensschatzes relevante Fachbegriffe, Theorien oder Disziplinen identifiziert werden, die anschließend einer manuellen Überprüfung in wissenschaftlichen Datenbanken unterzogen werden können. Dadurch ist es möglich, Themenfelder zu definieren und inhaltliche Verknüpfungen zu generieren, die ohne den Input der KI möglicherweise übersehen worden wären.

Dennoch ist festzuhalten, dass die Limitierungen eine ebenso wesentliche Bedeutung wie die Möglichkeiten besitzen. Ein zentrales Problem ist die eingeschränkte faktische Zuverlässigkeit. Sprachmodelle basieren auf Prognosen und generieren Inhalte, die zwar sprachlich überzeugend erscheinen, jedoch nicht zwangsläufig auf überprüfbaren Fakten basieren. Dies resultiert in dem Phänomen der sogenannten "Halluzinationen", d. h. in plausibel klingenden, inhaltlich jedoch falschen oder frei erfundenen Aussagen (Whittaker, C., 2025, S. 40). Für die wissenschaftliche Arbeit bedeutet dies, dass sämtliche von der KI gelieferten Informationen einer sorgfältigen Quellenprüfung unterzogen werden müssen. Hinsichtlich der Aktualität lässt sich folgende Einschränkung feststellen. Die Verwendung eines KI-Modells, dessen Grundlage nicht tagesaktuelle Daten sind, kann zu zeitlichen Lücken führen. In der Konsequenz können damit zeitnahe Entwicklungen, neue Studien und aktuelle Analysen unberücksichtigt bleiben.

Ein weiteres Hindernis ist die fehlende methodische Eigenleistung der KI. Wissenschaftliche Beiträge erfordern nicht nur die Darstellung von Informationen, sondern auch kritische Analyse, Interpretation und die Einbettung in den Stand der Forschung. Hier kann die KI lediglich Hilfestellung leisten, aber keine eigenständige Forschung betreiben. Sie führt keine empirischen Experimente durch, kann keine Originaldaten erheben und hat kein eigenes Urteilsvermögen. Daraus folgt, dass KI-generierte Texte in der Regel nur als Entwurf oder Inspiration dienen sollten, nicht jedoch als Endprodukt ohne menschliche Überarbeitung.

Ergänzend sind ethische und rechtliche Herausforderungen zu berücksichtigen. Eine Vielzahl von Hochschulen und wissenschaftlichen Institutionen hat mittlerweile explizite Richtlinien bezüglich des Einsatzes von KI formuliert. In zahlreichen Fällen ist eine vollständige Erstellung wissenschaftlicher Texte durch KI untersagt oder nur unter der Voraussetzung zulässig, dass der Einsatz der KI transparent dargelegt und die Urheberschaft eindeutig geregelt wird. Die urheberrechtliche Frage ist in diesem Zusammenhang von besonderer Relevanz, da KI-Systeme wie ChatGPT nicht als juristische Personen gelten. Dies führt zu Unklarheiten hinsichtlich der Zurechnung des Urheberrechts an die generierten Texte. Des Weiteren ist es untersagt, urheberrechtlich geschützte Materialien ohne Prüfung zu übernehmen. Dies könnte bei der Verwendung von, mittels KI generierten Inhalten indirekt erfolgen, wobei die entsprechenden Quellen nicht transparent angegeben werden.

Die Ergebnisse der praktischen Untersuchung zeigen, dass der Einsatz von KI im wissenschaftlichen Kontext als praktikabel zu erachten ist, jedoch unter der Voraussetzung klar definierter Rahmenbedingungen. ChatGPT kann als ein Instrument zur Strukturierung, Inspiration und sprachlichen Ausarbeitung betrachtet werden. Seine Wertigkeit ist jedoch an die Bedingung geknüpft, dass die Verantwortung für Inhalt, Qualität und wissenschaftliche Integrität weiterhin beim Menschen verbleibt. Die Praktikabilität ist folglich nicht allein durch die Leistungsfähigkeit der KI bestimmt, sondern auch durch die Kompetenz der Nutzerinnen und Nutzer im kritischen Umgang mit den generierten Inhalten. Die Fähigkeit, den Output von KI systematisch zu prüfen, korrekt zu zitieren und in einen eigenen wissenschaftlichen Kontext einzubetten, ist für die effektive Nutzung des Potenzials dieser Technologie von entscheidender Bedeutung.

Es lässt sich prognostizieren, dass KI-Tools zukünftig eine signifikant stärkere Integration in den wissenschaftlichen Arbeitsprozess erfahren werden. Langfristig könnten diese mit direkten Schnittstellen zu wissenschaftlichen Datenbanken ausgestattet werden, um aktuelle, überprüfte Quellen in Echtzeit zu integrieren. Eine weitere Entwicklung könnte in der verstärkten Förderung kollaborativer Arbeitsprozesse liegen. Dies könnte durch KI-Systeme unterstützt werden, die mehrere Autorinnen und Autoren simultan beim Koordinieren, Kommentieren und Zusammenführen von Texten unterstützen.

Zusammenfassend lässt sich festhalten, dass KI-Technologien wie ChatGPT im wissenschaftlichen Kontext weder als Allheilmittel noch als Bedrohung zu betrachten sind, sondern vielmehr als ein vielseitiges Werkzeug. Der praktische Nutzen dieser Technologie ist in hohem Maße abhängig von der bewussten, kritischen und regelkonformen Anwendung. Unter Berücksichtigung ethischer Standards, einer konsequenten Quellenprüfung sowie einer klaren Trennung der Aufgaben zwischen Menschen und maschineller Intelligenz kann diese dazu beitragen, wissenschaftliche Arbeit effizienter, kreativer und zugänglicher zu gestalten, ohne dabei die Grundsätze akademischer Integrität zu verletzen.

Literaturverzeichnis

[1] C. Whittaker, Next Level Science: Künstliche Intelligenz und das Ende der traditionellen Wissenschaftsformate. Bremen, Germany: BREMEN University Press, 2025.

[2] P. Poensgen, "Analyse und Synthese: Zur wissenschaftlichen Fundierung einer klassischen Forschungsmethodik im Kontext KI-gestützter Wissenschaft," Zeitschrift für Bildungsforschung, Erfurt: Springer Verlag, 2025.


Vorstellung der Autorin

Dipl.-Ing. Dr. Gülay Akyokuş

Die Autorin absolvierte ihr Architekturstudium an der Technischen Universität Wien und promovierte dort mit einer Dissertation. Derzeit erweitert sie ihre Expertise durch ein MBA-Studium mit dem Schwerpunkt „Digitale Transformation und Künstliche Intelligenz“. Ihre Forschungs- und Interessensschwerpunkte liegen an der Schnittstelle von Architektur, Technologie und Innovation – insbesondere in der Anwendung digitaler Strategien und künstlicher Intelligenz im Bereich des Facility Managements.

Read more

Impressum aiUP Medical

aiUP medical (in Gründung) Unternehmenssitz: Gschwandnergasse 22/2/9 1170 Wien Österreich Vertretungsberechtigt: Avid Vormann (CEO) Maximilian Mairinger (CTO) Kontakt: Telefon: +43 650 9350025 E-Mail: avid.vormann@forju.at Rechtsform: Gesellschaft in Gründung (Eintragung im Firmenbuch folgt) Unternehmensgegenstand: Entwicklung einer KI-gestützten Plattform zur Standardisierung und Interoperabilität medizinischer Daten. Zukünftige Anteilseigner:

By Avid Vormann