Umgang mit generativen KI-Tools im wissenschaftlichen Arbeiten

Mit den folgenden Informationen gibt die BTU Cottbus-Senftenberg wissenschaftlich Tätigen eine Orientierung bei der Nutzung von generativen KI-Tools im Rahmen des wissenschaftlichen Arbeitens. Die BTU Cottbus-Senftenberg lehnt den Einsatz von KI-Tools im Hochschulkontext nicht grundsätzlich ab, sondern unterstützt den sinnvollen, kritisch-reflexiven und verantwortungsvollen Einsatz ohne dabei problematische Implikationen wie urheber- und datenschutzrechtliche sowie forschungsethische Fragen zu vernachlässigen. Sie folgt den Leitlinien der DFG für den Umgang mit generativen Modellen zur Text- und Bilderstellung sowie den generellen Grundsätzen guter wissenschaftlicher Praxis, insbesondere dem Transparenzgebot als wissenschaftliches Redlichkeitsprinzip.

Die Nutzung generativer KI-Tools sollte auf Basis fachlich-methodischer Reflexion erfolgen und Risiken sowie ethische und rechtliche Aspekte sollten angemessen berücksichtigt werden. Aufgrund der aktuell großen Dynamik in dem Themenfeld werden die nachfolgenden Hinweise regelmäßig aktualisiert und es wird zunächst auf die Erstellung einer hochschulspezifischen Leitlinie mit starren Vorgaben und Regelungen verzichtet. Die BTU prüft außerdem derzeit eine rechtskonforme Bereitstellung von generativen KI-Tools für Lehrende und Mitarbeitende der BTU.

Die generative künstliche Intelligenz (KI) ist eine spezielle Form von KI und umfasst solche Technologie, die eigenständig neue Inhalte generieren kann, beispielsweise in Form von Texten, Audio- und Videodateien, Bildern oder Codes. Dabei werden keine tatsächlich neuen Daten geschaffen, sondern lediglich bereits vorhandene Informationen aus den zugrundeliegenden Daten neu zusammengesetzt bzw. angewendet.

Wissenschaftliches Arbeiten mit KI-basierten Tools

Beim wissenschaftlichen Arbeiten können KI-Tools auf vielfältige Weise eingesetzt werden. Sie können z. B. helfen, wissenschaftliche Arbeitsprozesse zu optimieren, komplexe Probleme effizienter zu lösen, neue Erkenntnisse zu gewinnen, innovative Lösungen zu entwickeln und Forschungsergebnisse zu verbessern. Mittlerweile gibt es neben kommerziellen Tools immer mehr Open-Source-Angebote (u. a. lokal nutzbar). Die Wahl eines KI-Tools hängt auch vom Einsatzzweck ab. Eine Übersicht über KI-Tools bieten Seiten wie https://www.futurepedia.io/, https://www.hcilab.org/ai-tools-directory/, https://www.advanced-innovation.io/ki-tools und https://theresanaiforthat.com/. Bei den vorgestellten KI-Tools können jedoch Fehler, Oberflächlichkeiten, Bias und sogenannte Halluzinationen nie ausgeschlossen werden, sodass die Ergebnisse immer kritisch geprüft werden sollten. Zudem entwickelt sich das Gebiet sehr schnell, so dass immer wieder neue KI-Tools und Möglichkeiten eingeführt werden. Vor der Nutzung der unverbindlich vorgestellten KI-Tools empfiehlt sich zudem eine Prüfung über Kosten, Nutzungsbedingungen und Datenschutz.

Möglichkeiten zum Einsatz von KI-Tools beim wissenschaftlichen Arbeiten:

  • Literaturrecherche und -analyse: Hilfe bei der Identifizierung, dem Sammeln und Analysieren relevanter wissenschaftlicher Literatur zur Darstellung des Stands der Forschung zu einem bestimmten Thema und der Formulierung neuer Forschungsfragen

    Beispiele für KI-Tools: Elicit, Research Rabbit, Perplexity, Semantic Scholar, SciSpace, Consensus, Iris.ai, Keenious, ChatPDF
     
  • Experimentelles Design und Durchführung: KI-gestützte Simulationen und Modellierungstools können dabei helfen, Experimente zu planen, durchzuführen und zu analysieren, um Hypothesen zu testen und neue Erkenntnisse zu gewinnen

    Beispiele: Algorithmus "AlphaFold" von Google DeepMind; Deep-Learning-Modelle, um die Aktivität und Toxizität neuer Verbindungen in der Arzneimittelforschung vorherzusagen
     
  • Datenanalyse und -interpretation: Analyse großer Datenmengen, Automatisieren repetitiver Aufgaben, Erkennen von Mustern und Trends sowie Ableiten von Erkenntnissen, Hilfe beim Überprüfen von Hypothesen und Aufdecken von Zusammenhängen

    Beispiele für KI-Tools: Formula Bot, IBM Watson Analytics, DataRobot, RapidMiner, Julius, TensorFlow, H2O.ai, KNIME
     
  • Textgenerierung und -bearbeitung: Hilfe beim Verfassen, Überarbeiten, Formatieren und Übersetzen wissenschaftlicher Texte, um Forschungsergebnisse klar und präzise zu kommunizieren sowie komplexe Themen in leicht verständliche Formate umzuwandeln.

    Beispiele für KI-Tools zur Textgenerierung: ChatGPT, Claude, Gemini (ehem. Bard), Perplexity, Neuroflash, AlephAlpha, Mindverse, Copycockpit, Writesonic, h2oGPT
    Beispiele für KI-Tools zur Textkorrektur: Grammarly, DeepL Write, Trinka, Plag, Quillbot
    Beispiele für KI-Tools zum Übersetzen und Transkribieren: DeepL, Google Translate, Sonix, Buzz Captions, Trint.
    Beispiele für KI-Tools zum Paraphrasieren: QuillBot, PolitePost, ChatPDF

Weitere Beispiele für Bildgenerierungstools sind: Adobe Firefly, Stable Diffusion, DALL-E und Midjourney. Audios und Videos lassen sich bspw. mit folgenden KI-Tools erstellen: Soundraw, D-ID, Synthesia, Runway.

Rechtliche Aspekte bei der Nutzung von KI-Tools

Im Umgang mit personenbezogenen Daten Dritter im Zusammenhang mit KI-basierten Tools ist die Wahrung des Datenschutzrechts, insbesondere der Datenschutz-Grundverordnung (DSGVO), des Bundesdatenschutzgesetzes (BDSG) sowie des Brandenburgischen Datenschutzgesetzes (BbgDSG), sicherzustellen. Dies betrifft sowohl den Upload von Informationen in KI-basierte Tools als auch die durch diese erzeugten Inhalte. Personenbezogene Daten dürfen nur in generative KI-Tools eingegeben werden, wenn die Softwarebetreiber diese Daten weder Dritten zugänglich machen noch als Trainingsdaten nutzen. Über den Datenschutz hinaus ist auch die Eingabe vertraulicher Informationen, sensibler Forschungsdaten oder interner Dokumente nicht zulässig.

Es wird empfohlen, bevorzugt datensparsame KI-Tools zu verwenden und wenn möglich die Datenschutzeinstellungen anzupassen, so dass bspw. Chats nicht gespeichert und die Chatverläufe nicht als Trainingsdaten weiterverwendet werden.

Sofern wissenschaftlich tätige Personen die Ergebnisse KI-basierter Tools nach inhaltlicher Prüfung in eigenen Arbeiten verwenden, tragen die Nutzenden die Verantwortung für eventuell durch die KI generierte fehlerhafte oder verzerrte Inhalte, fehlerhafte Referenzen, Verstöße gegen das Urheberrecht oder Plagiate.

Urheberschaft an KI-generiertem Output

KI-gestützte Programme zur Textproduktion können im Sinne des Gesetzes über Urheberrecht und verwandte Schutzrechte (UrhG) nicht als Autor*innen bzw. Urheber*innen des von ihnen generierten Textes gelten; Nutzer*innen derartiger Programme schon. Entscheidend ist dabei ein signifikantes Maß an geistiger Eigenleistung.1

Zudem erzeugen Technologien automatisierter Bild- oder Musikgenerierung keine urheberrechtsfähigen Schöpfungen, so dass auf diese Weise entstandene Bilder und Musik „gemeinfrei“ und nicht vom Urheberrecht geschützt sind. Urheberrechtsschutz entsteht erst für eine natürliche Person, wenn ein Mensch maßgeblichen Anteil bei der Herstellung des Kunstwerks hat (sogenannte „Schöpfungshöhe“). Der Technologie kann kein Urheberrecht zufallen.2

Der Upload urheberrechtlich geschützter Materialien in KI-basierte Tools kann eine urheberrechtlich relevante Handlung darstellen, so dass insoweit gesetzlichen Regelungen eingehalten werden müssen.

Kennzeichnungspflichten für KI-generierten Text im akademischen Kontext

Eine Kennzeichnungspflicht für KI-generierten Text kann sich aus den Nutzungsbedingungen einer Software sowie aus jeweils geltenden Prüfungsordnungen und Rahmenvorschriften einer Hochschule ergeben (bspw. dann, wenn die Angabe jeglicher Hilfsmittel vorgeschrieben ist).1

Um die Art der Nutzung von KI-Tools transparent zu machen, müssen gemäß den Rahmenbedingungen Stellen der Arbeit, die auf der Verwendung von KI-Tools basieren, unter Angabe der Quelle entsprechend kenntlich gemacht und die Art der Nutzung genannt werden (exemplarisch: bspw. Nutzung zur Ideenfindung, zur Erstellung der Gliederung, zur Entwicklung/Optimierung von Software-Quelltexten, zur sprachlichen Optimierung, zur Erstellung von Textpassagen etc.).

OER-Lizenzierung

KI-generierter Text, der ohne signifikante menschliche Einflussnahme entsteht, ist im Sinne des UrhG als gemeinfrei zu verstehen. Wenn Nutzende einer KI-Software Urheberrecht für einen KI-generierten Text geltend machen können, ist die Lizenzierung als Open Educational Resource (OER) möglich. Dabei ist allerdings sicherzustellen, dass der KI-generierte Text keine urheberrechtlich geschützten Inhalte enthält.1

Gemeinfreier KI-Output ist von sich aus open: Das Urheberrecht steht dem Weitergeben, Kopieren und Remixen von gemeinfreien Inhalten nicht im Weg.3 Liegt ein Urheberrecht an der Bearbeitung von KI-generiertem Output durch eine persönliche geistige Schöpfung vor, sollte die Bearbeitung für den weiteren Einsatz als OER möglichst offen lizenziert werden. Hier bieten sich die der Gemeinfreiheit nachempfundene Lizenz Creative Commons Zero (CC0) oder diejenige mit Namensnennung (CC BY) an.2, 3

Gute wissenschaftliche Praxis

In der Regel wird die markierte Übernahme KI-generierten Textes formal keinen Verstoß gegen Regeln guter wissenschaftlicher Praxis darstellen.1

Der Einsatz von KI-basierten Tools darf die Grundsätze guter wissenschaftlicher Praxis nicht verletzen, insbesondere das Transparenzgebot als wissenschaftliches Redlichkeitsprinzip. Es muss für Dritte erkennbar sein, welche Teile einer Arbeit in welchem Ausmaß von einer KI generiert wurden. Demzufolge besteht eine Dokumentationspflicht, d. h. die zur Erstellung der Arbeit genutzten KI-basierten Tools sind entsprechend den Vorgaben bspw. unter „Methoden“ oder „Referenzen“ oder in der Danksagung anzugeben bzw. im Anhang der Arbeit wie folgt zu dokumentieren:

Name des KI-Tools, Softwareversion, ggfs. Datum des Abrufs, ggfs. URL, verwendeter Prompt und ggfs. Ergebnis (Transkription oder Screenshots).

Publikationen:

1  Peter Salden, Jonas Leschke (Hrsg.): „Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung", Zentrum für Wissenschaftsdidaktik der Ruhr-Universität Bochum, 2023, https://doi.org/10.13154/294-9734

Der erste Abschnitt des Dokuments bietet einen Einstieg in die Thematik, zeigt in Kürze technische Hintergründe auf und fokussiert dann didaktische Aspekte. Im zweiten Abschnitt – „Rechtsgutachten zum Umgang mit KI-Software im Hochschulkontext“ – werden die in der Einführung aufgeworfenen Rechtsfragen beantwortet (u.  a. Urheberschaft, Kennzeichnungspflichten, wissenschaftliches Fehlverhalten).

2  „KI und OER: Wie gut passen sie zusammen?“, Georg Fischer, 24. April 2023, iRights.info, https://irights.info/artikel/kuenstliche-intelligenz-und-open-educational-resources/31872

3  „OER und CC-Lizenzen bei generativer KI“, Fabian Rack, 15. November 2023, iRights.info, https://irights.info/artikel/oer-cc-lizenzen-generative-ki/32090

Regelungen und Angebote der BTU

Eigenständigkeitserklärungen, die Regeln guter wissenschaftlicher Praxis und Prüfungsordnungen enthalten schon jetzt meist Vorschriften, die auf den Einsatz von KI-Tools anwendbar sind. Bereits existierende Erklärungen können fachspezifisch dahingehend ergänzt werden, ob und, wenn ja, in welchem Maße und unter welchen Bedingungen KI-Tools Anwendung finden können.

Bei der Nutzung und Dateneingabe müssen die in der Wissenschaft tätigen Personen als Beschäftigte der BTU die Datenschutz-Grundverordnung (DSGVO) sowie die bestehenden Vertraulichkeitsregelungen und Geheimhaltungsvereinbarungen einhalten. Dies gilt ebenfalls für vertragliche Geheimhaltungsverpflichtungen (Non-Disclosure Agreement (NDA)‎, Geheimhaltungsvereinbarung (GHV), Geheimhaltungs-/Vertraulichkeitsregelungen in Kooperationen, FuE-Verträgen, etc.). Die nutzenden Personen haben die Verantwortung für die gewissenhafte, kritisch-reflexive Nutzung von KI-Tools. Dafür sollten sie:

  • Information zu Vorgaben der Fachbereiche einholen,
  • keine fremden personenbezogenen oder sensiblen Daten oder vertrauliche bzw. BTU-interne Informationen eingeben und Datenschutzeinstellungen (wenn möglich) anpassen,
  • sich über die Datenspeicherung und -nutzung jedes individuellen KI-Tools informieren,
  • Daten, die zum Training eines KI-Tools verwendet werden, anonymisieren bzw. pseudonomysieren,
  • alle Ergebnisse eines KI-Tools kritisch überprüfen (auch bzgl. geistigem Eigentum),
  • die Nutzung von KI-Tools entsprechend den Vorgaben referenzieren und dokumentieren,
  • generell den Leitlinien der DFG für den Umgang mit generativen Modellen zur Text- und Bilderstellung sowie den Grundsätzen guter wissenschaftlicher Praxis folgen.

In der Regel sollten bei der Verwendung von KI-basierten Tools mindestens folgende Angaben zur Dokumentation gemacht werden: Titel (bei Text-, Bild- und Multimediagenerierungs-Tools gilt der Prompt (Eingabe der nutzenden Person) als Titel), Name und Version des Tools, Anbieter, Datum der Generierung der Inhalte, Adresse (URL des Tools).

Im IKMZ der BTU werden u. a. im Rahmen des Projektes KI@MINT verschiedene KI-Tools erprobt; eine gesonderte Empfehlungsliste ist (noch) nicht vorhanden. Außerdem gibt es eine IKMZ-interne AG zum Thema KI-Tools und Lizenzen, die an der Frage einer zentralen Bereitstellung von Tools an der BTU arbeitet. Bei Fragen hierzu wenden Sie sich bitte an den Leiter des Multimediazentrums, Herrn Boguslaw Malys (Kontaktdaten).

Im Rahmen des wissenschaftlichen Weiterbildungsprogramms der BTU werden regelmäßig Veranstaltungen zum Einsatz von generativer KI im wissenschaftlichen Kontext angeboten. Informationen zu aktuellen Angeboten finden Sie auf der Intranetseite der Abteilung Forschung, den Webseiten der Graduate Research School (GRS) sowie auf den Seiten des ZWW.

Leitlinien der DFG für den Umgang mit generativen Modellen zur Text- und Bilderstellung

Die Deutsche Forschungsgemeinschaft (DFG) hat im September 2023 erste Leitlinien für den Umgang mit generativen Modellen für die Text- und Bilderstellung veröffentlicht. Als Ausgangspunkt einer kontinuierlichen Begleitung soll das Papier sowohl Wissenschaftlerinnen und Wissenschaftlern in ihrer Arbeit als auch Antragstellenden bei der DFG sowie den am Begutachtungs-, Bewertungs- und Entscheidungsprozess beteiligten Personen eine Orientierung bieten.

Rahmenbedingungen, um die gute wissenschaftliche Praxis und die Qualität wissenschaftlicher Ergebnisse zu sichern:

  • Transparenz und Nachvollziehbarkeit des Forschungsprozesses und der gewonnenen Erkenntnisse für Dritte
  • Wissenschaftlerinnen und Wissenschaftler stehen selbst für die Einhaltung der Grundprinzipien wissenschaftlicher Integrität ein. Der Einsatz generativer Modelle kann Wissenschaftlerinnen und Wissenschaftler von dieser inhaltlichen und formalen Verantwortung nicht entbinden.
  • Bei der öffentlichen Zugänglichmachung ihrer Ergebnisse sollten Wissenschaftlerinnen und Wissenschaftler offenlegen, ob und welche generativen Modelle zu welchem Zweck und in welchem Umfang eingesetzt wurden.
  • In wissenschaftlichen Publikationen können nur die verantwortlich handelnden natürlichen Personen als Autorinnen und Autoren in Erscheinung treten. Sie müssen sicherstellen, dass durch die Verwendung generativer Modelle kein fremdes geistiges Eigentum verletzt wird und kein wissenschaftliches Fehlverhalten etwa in Form von Plagiaten entsteht.
  • Bei der Erstellung von Gutachten ist der Einsatz von generativen Modellen mit Blick auf die Vertraulichkeit des Begutachtungsverfahrens unzulässig. Zur Begutachtung bereitgestellte Unterlagen sind vertraulich und dürfen insbesondere nicht als Eingabe für generative Modelle genutzt werden.

„Stellungnahme des Präsidiums der Deutschen Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle für die Text- und Bilderstellung auf die Wissenschaften und das Förderhandeln der DFG“ vom 21.09.2023

EU-Leitlinien für einen verantwortungsvollen Einsatz generativer künstlicher Intelligenz in der Forschung

Die Europäische Kommission hat am 20. März 2024 Richtlinien zur Verwendung von KI in Forschung und Innovation veröffentlicht. Obwohl generative KI-Tools Geschwindigkeit und Komfort bei der Erstellung von Text, Bildern und Code bieten, müssen Forschende auch die Grenzen der Technologie beachten, einschließlich möglicher Plagiate, der Preisgabe sensibler Informationen oder inhärenter Verzerrungen in den Modellen. Aufbauend auf den Prinzipien der Forschungsintegrität gehen die Empfehlungen auf die wichtigsten Chancen und Herausforderungen ein und bieten Forschenden, Organisationen und Geldgebern Orientierung für einen gemeinsamen Ansatz in ganz Europa. Da sich die generative KI ständig weiterentwickelt, werden diese Richtlinien mit regelmäßigem Feedback der wissenschaftlichen Gemeinschaft und Interessengruppen aktualisiert.

Es werden sog. Living Guidelines für die verantwortungsvolle Nutzung generativer KI in der Forschung zur Verfügung gestellt (Zum Faktenblatt).

Quelle: https://digital-strategy.ec.europa.eu/en/news/commission-and-research-community-develop-guidelines-responsible-use-generative-artificial

Veröffentlichungssrichtlinien von Journalen

Nature“ und die anderen Springer Nature Journals haben den Veröffentlichungssrichtlinien zwei Prinzipien hinzugefügt:1

  • ChatGPT und andere Large Language Modells (LLM Tools) dürfen nicht als Autoren genannt werden, da sie nicht die Verantwortung für den Text übernehmen können.
  • LLM Tools sollen unter Methoden oder bei der Danksagung dokumentiert werden. Wenn eine Publikation diese Abschnitte nicht enthält, kann die Einleitung oder ein anderer geeigneter Abschnitt verwendet werden, um die Verwendung der LLM Tools zu dokumentieren.

Außerdem hat das Wissenschaftsmagazin in einem Editorial bekanntgegeben, dass es – zumindest in absehbarer Zeit – keine Bilder und Videos veröffentlicht, die mithilfe eines KI-Generators erstellt oder verbessert wurden. Eine Ausnahme stellen lediglich Artikel dar, in denen es inhaltlich explizit um Künstliche Intelligenz geht.2

1  „Tools such as ChatGPT threaten transparent science; here are our ground rules for their use“, Nature 613, 612 (2023), doi: https://doi.org/10.1038/d41586-023-00191-1

2  „Why Nature will not allow the use of generative AI in images and video“, Nature 618, 214 (2023), doi: https://doi.org/10.1038/d41586-023-01546-4

Auch Elsevier hat eine Richtlinie in Bezug auf den Einsatz generativer KI und KI-gestützter Technologien im Schreibprozess veröffentlicht.

  • KI und KI-gestützte Technologien sollten nur dazu dienen, die Lesbarkeit und die Sprache der Arbeit zu verbessern, und nicht dazu, wichtige Autorenaufgaben zu ersetzen.
  • Die gesamte Arbeit sollte sorgfältig überprüft und redigiert werden. Letztlich sind die Autorinnen und Autoren für den Inhalt ihrer Arbeit verantwortlich und rechenschaftspflichtig.
  • KI und KI-gestützte Technologien sollten nicht als Autor oder Mitautor aufgeführt und KI auch nicht als Autor zitiert werden.
  • Der Einsatz von KI und KI-gestützten Technologien sollte im Manuskript offengelegt werden und eine entsprechende Erklärung mit dem Titel "Declaration of AI and AI-assisted technologies in the writing process" am Ende des Manuskripts unmittelbar über den Referenzen oder dem Literaturverzeichnis in der veröffentlichten Arbeit erscheinen.
  • Elsevier gestattet keine Verwendung generativer KI oder KI-gestützter Werkzeuge zur Erstellung oder Veränderung von Bildern in eingereichten Manuskripten. Die einzige Ausnahme stellt der Einsatz von KI oder KI-unterstützten Werkzeugen als Teil des Forschungsdesigns oder der Forschungsmethoden dar. Wenn dies der Fall ist, muss eine solche Verwendung in reproduzierbarer Weise im Methodenteil beschrieben werden. Dabei sollte eine Erklärung enthalten sein, wie die KI oder die KI-unterstützten Werkzeuge bei der Bilderstellung oder -veränderung verwendet wurden, sowie der Name des Modells oder Werkzeugs, die Versions- und Erweiterungsnummern und der Hersteller. Die Autoren sollten sich an die spezifischen Nutzungsrichtlinien der KI-Software halten und für eine korrekte Zuordnung der Inhalte sorgen.
  • Die Verwendung generativer KI oder KI-gestützter Werkzeuge bei der Erstellung von Grafiken, z. B. für Buch- oder Auftragscover oder grafische Zusammenfassungen, ist nicht zulässig.

Für gutachtende und editierende Personen ist die Nutzung von KI nicht gestattet, da sie die Vertraulichkeit von Autoren- und Eigentumsrechten verletzt und gegen Datenschutzrechte verstoßen kann.

„The use of generative AI and AI-assisted technologies in writing for Elsevier“, 18 August 2023, https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier

Die Editorial Policies für Science Journals mit vergleichbaren Vorgaben finden Sie hier: https://www.science.org/content/page/science-journals-editorial-policies (Abschnitt „Image and Text Integrity“).

Weitere Informationen

Kontakt

PD Dr. rer. oec. habil. Ines Brusch
Abteilungsleiterin
T +49 (0) 355 69-5500
ines.brusch(at)b-tu.de
 

Dr. rer. nat. Katrin Weise
DFG-Referentin
T +49 (0) 355 69-2716
katrin.weise(at)b-tu.de