Inhaltspezifische Aktionen

Open Affinity Group zum Einsatz KI-gestützter Tools im Hochschulkontext gegründet

Seit dem Launch von ChatGPT im November 2022 stehen künstliche Intelligenz (KI) und ihre Anwendung im Bildungs- und Prüfungskontext weit oben auf der Agenda vieler Hochschullehrenden. Insbesondere sprachgenerative KI-Tools liefern bereits beeindruckende Ergebnisse und unterstützen bei der Gliederung von Hausarbeiten, Erstellung von Literaturverzeichnissen, Paraphrasierung und Übersetzung von Forschungsliteratur sowie Beantwortung von wissenschaftlichen Fragen. Die Möglichkeiten, Prüfungsleistungen per Mausklick und auf dem Silber-Tablet zu erhalten, erfordern von Hochschulen ein Überdenken bestehender Prüfungsformate sowie grundsätzlich des wissenschaftlichen Schreibens und der damit verbundenen guten Praxis. An der JLU hat sich daher eine Open Affinity Group zum Einsatz von KI-gestützten Tools im Hochschulkontext gebildet, um mit Lehrenden und Studierenden in einen intensiven Austausch zu kommen.

Disclaimer: Im Rahmen der Arbeit und des Informationsaustauschs der Open Affinity Group können keine verbindlichen Empfehlungen ausgesprochen oder rechtliche Fragen verbindlich beantwortet werden.
Top

KI - Seiteninhalte für Tabs

Seit Wochen wird der öffentliche Diskurs im Bildungssektor von Diskussionen über den Umgang mit ChatGPT, einem generativen KI-gestützten Sprachmodell, dominiert. Parallel zur Euphorie, mit welcher Leichtigkeit das frei verfügbare Tool elaborierte Texte aus einfachen Fragen und Anweisungen erstellen kann, entstehen jedoch auch Befürchtung (bspw. darüber dass eine Leistungsüberprüfung an Schulen und Universitäten mit vielen der gängigen Methoden nicht mehr ohne Weiteres möglich ist). Um hier anzusetzen und um mit allen Interessierten über Einsatzszenarien und bildungspraktische sowie -rechtliche Implikationen bei der Nutzung von ChatGPT und vergleichbarer sprachgenerativer KI in einen Diskurs zu treten, wurde an der JLU eine Open Affinity Group (OAG) zum Einsatz KI-gestützter Tools in der Hochschullehre ins Leben gerufen.

Die nachfolgende FAQ (frequently asked questions) dient einem kurzen Einstieg in das Thema und soll Missverständnisse bzgl. der Technologie aufklären. Sie soll auch dabei helfen, eine Verständnisgrundlage zu schaffen, um die Diskussion im Rahmen der OAG so konstruktiv und produktiv wie möglich zu gestalten. Die FAQ wird regelmäßig aktualisiert und um neue Informationen erweitert.

FAQ zu ChatGPT (und vergleichbarer sprachgenerativer KI)

Erstellt ChatGPT verlässliche Texte, die faktisch richtig sind?

Nein. ChatGPT ist ein Sprachmodell, welches darauf ausgelegt ist, Texte zu erstellen, die sich so lesen, als seien sie von einem Menschen erstellt. Das kann zwar mit faktischer Korrektheit einhergehen; es war jedoch bisher nicht das hauptsächliche Ziel des Modells, faktisch richtige Aussagen zu liefern. Der ausgegebene Texte basiert auf einer großen Menge ausgesuchter Quellen und entspricht meistens dem öffentlichen Konsens, woraus sich aber nicht ableiten lässt, dass die KI richtig liegen muss.

Erstellt ChatGPT nur gut klingende Texte, die nach der Wahrscheinlichkeit von Wortabfolgen entstehen?

Nein. ChatGPT ist in der Lage, Texte und Fragen in einen bestimmten Kontext zu setzen oder zu übertragen sowie in Teilen eigene Schlussfolgerungen zu treffen. Das Tool ist meistens auch in der Lage, auf Nachfrage zu erläutern, wieso es welche Antwort gegeben hat und welche Entscheidungen zu der Antwort geführt haben. Das Modell verfügt über eine innere Logik, auf der es diese Entscheidungen trifft. Ermöglicht wird dies durch Deep Learning , einer Methode des maschinellen Lernens.

Erstellt generative KI nur einen Text, der aus anderen Texten zusammenkopiert worden ist?

Nein. Generative KI erstellt einen komplett neuen und individuellen Text. Die Individualität des Textes steigt mit der Komplexität der Anfrage.

Kann man herausfinden, ob ein Text mit generativer KI erstellt wurde?

Bisher gibt es keine Möglichkeit, einen von einer KI erstellten Text zuverlässig von einem Text zu unterscheiden, der von einem Menschen erstellt wurde. Aktuelle Erkennungsmethoden liefern eine Erkennungsrate von 26% (Quelle: OpenAI) .

Kann generative KI Transferleistungen erbringen?

Ja. Wenn die richtigen Fragen gestellt werden, kann ChatGPT bspw. die Prinzipien eines Sachverhaltes oder eines Ereignisses auf eine andere Situation oder einen Text anwenden.

Beispiel: Das Finden inhaltlicher Überschneidungen zwischen zwei theoretischen Konzepten (hier: zwischen der Philosophie Karl Poppers und dem Buddhismus) .

Sind neuronale Netze, auf denen auch ChatGPT basiert, in der Regel nur für eine spezielle Aufgabe geeignet?

Nein. Wir stehen erst am Anfang der KI-Forschung. Es ist möglich, verschiedene neuronale Netze mit unterschiedlichem Fokus zu kombinieren, um eine Vielfalt an Funktionen zu erhalten. Die Funktionsweise von neuronalen Netzen wird bisher nicht wirklich verstanden. Wir wissen, dass sie funktionieren und wie sie aufgebaut sind, aber was sie können und können werden, ändert sich ständig. Es ist daher wichtig, den Prozess im Fokus zu haben und eine Grundhaltung zu dem Thema zu entwickeln und keine starren Regeln zu etablieren.

Weitere Quellen, Texte und Stellungnahmen: