Skip to content

ChatGPT und philosophische Essays.

Die »künstliche Intelligenz« ChatGPT schreibt Texte. Sie erledigt diese Aufgabe besser als frühere Chatprogramme – trotzdem hat sie natürlich ebenso wenig Verständnis für das Geschriebene wie ihre Vorgänger. Die Leistungen imponieren gleichwohl.

Für die Schule kann man sich viele interessante Einsatzmöglichkeiten vorstellen. Die plakative Frage Tötet ChatGPT das Lernen? ist damit zwar sehr werbewirksam, aber natürlich Unfug. Schade ist gleichwohl, dass bestimmte Arten von Aufgaben nicht mehr möglich sein werden, weil sie mithilfe von ChatGPT gelöst werden können. Wie weit dies geht (und ChatGPT ist ja nur der Anfang), haben wir wahrscheinlich noch gar nicht durchdrungen.

Natürlich kann es beispielsweise in einer Unterrichtseinheit zum Thema Aufklärung sinnvoll sein, Schüler*innen aus verschiedenen Quellen Kennzeichen dieser Epoche sammeln und in Stichworten erklären zu lassen – wenn aber ChatGPT das in zwei Minuten erledigt, ist es für die Schüler*innen nicht unbedingt ersichtlich, wieso sie das per Kopf und Hand selbst erledigen sollen. Ein integrierender Ansatz, wie ihn Christian Spannagel vertritt, ist vor dem Hintergrund bestehender Lehrpläne mit darin benannten zu erlernenden / zu vertiefenden Kompetenzen kaum umzusetzen. Wenn von der Kompetenz »Die Schülerinnen und Schüler erarbeiten, analysieren und bewerten zentrale Motive einer literarischen Epoche« der erste und zweite Aspekt jederzeit mithilfe von ChatGPT geleistet werden kann, wird die Übung schwierig. Wenn Schüler*innen aber die Übungsphase nicht durchlaufen, ist auch der dritte Aspekt »Bewertung« schwer zu leisten.

(Und natürlich kann ich mir die Gestaltung von Phasen vorstellen, in denen Schüler*innen ohne die Nutzung des Internets auskommen müssen. Aber in Gruppenarbeitsphasen, bei Projektaufgaben etc., also vielen offeneren und interessanteren Organisationsformen, ist das Netz immer präsent.) –

Für meinen letzten Durchgang der philosophischen Essays habe ich der terminlichen Passung wegen die Aufgaben des Philosophiewettbewerbs genutzt. Die am häufigsten bearbeitete Aufgabe lautete »Darf man Menschen zu ihrem Glück zwingen?«

Erteilt man ChatGPT die Augabe »Schreibe einen Essay von 1500 Wörtern zum Thema "Darf man Menschen zu ihrem Glück zwingen?", dann wird folgender Text ausgeworfen:

Es ist eine alte Frage, ob es möglich oder sogar moralisch vertretbar ist, Menschen zu ihrem Glück zu zwingen. Es gibt dafür sowohl argumente pro als auch contra.

Ein Argument dafür wäre, dass Menschen manchmal schlechte Entscheidungen treffen, die ihr Glück auf lange Sicht sabotieren. Zum Beispiel könnten sie sich für einen Beruf entscheiden, der sie unglücklich macht, oder in einer Beziehung bleiben, die schädlich für sie ist. In solchen Fällen könnte es sinnvoll sein, Menschen zu ihrem eigenen Glück zu zwingen, indem man sie dazu bringt, ihre Entscheidungen zu überdenken oder sogar zu ändern.

Ein Argument dagegen ist, dass das Glück eine subjektive Erfahrung ist und jeder Mensch seine eigene Vorstellung davon hat, was ihn glücklich macht. Wenn man Menschen zu ihrem Glück zwingen würde, wäre dies eine Einschränkung ihrer Freiheit und ihres Selbstbestimmungsrechts. Sie sollten selbst entscheiden dürfen, was sie glücklich macht, auch wenn diese Entscheidungen anderen Menschen vielleicht unverständlich oder sogar unangebracht erscheinen.

Ein weiteres Argument gegen das Zwingen zum Glück ist, dass es unmöglich ist, den Glückszustand eines Menschen zu verändern, indem man ihm Vorschriften macht oder ihn dazu zwingt, bestimmte Dinge zu tun. Glück ist eine emotionale Reaktion auf die Umstände des Lebens und hängt von vielen Faktoren ab, die außerhalb unserer Kontrolle liegen. Es ist daher unwahrscheinlich, dass man Menschen zu ihrem Glück zwingen kann, indem man sie dazu bringt, bestimmte Dinge zu tun oder zu unterlassen.


Der Text ist nicht lang genug, weil das Programm den Task wegen Überlastung abgebrochen hat, aber deutlich wird schon anhand dieses Fragments: es ist kein origineller Text, er wird die Philosophie nicht um den entscheidenden Schritt voranbringen, er hat diverse Schwächen, er arbeitet mit Allgemeinplätzen und so fort. Aber: das lesen wir in Schüleraufsätzen (übrigens genauso wie in Zeitungsartikeln, politischen Kommentaren etc.) auch. Aus den Schwächen, die dieser Text hat, zu folgern, er müsse von einer KI geschrieben worden sein, ist nicht möglich. Da der Text aber on the fly generiert und nicht allgemein verfügbar abgespeichert wird, kann ich als korrigierender Lehrer vielleicht den Verdacht haben, er sei nicht selbst geschrieben, dies aber nie belegen. Und nein: es würde sicher keine hervorragende Note vergeben. Aber für Schüler*innen, die ohnehin nur ein »befriedigend« oder »ausreichend« brauchen und / oder glauben, nicht mehr erreichen zu können, wäre die Nutzung von ChatGPT eine Handlungsmöglichkeit.

Daher, befürchte ich, kann ein philosophischer Essay in der bisherigen Form keine Klausurersatzleistung mehr sein. Das finde ich ausgesprochen schade, denn es war eine freiere Form der Leistungserbringung, die immer wieder außergewöhnliche Aufsätze entstehen ließ.

Hm. Noch nicht fertig mit dem Nachdenken.

Trackbacks

Keine Trackbacks

Kommentare

Ansicht der Kommentare: Linear | Verschachtelt

Noch keine Kommentare

Kommentar schreiben

BBCode-Formatierung erlaubt
Gravatar, Monster ID, Monster ID, Monster ID, Monster ID, Monster ID Autoren-Bilder werden unterstützt.
Umschließende Sterne heben ein Wort hervor (*wort*), per _wort_ kann ein Wort unterstrichen werden.
Formular-Optionen