Skip to content

Schlagwort: Prompt Engineering

KI Halluzinationen: Was sie sind und wie du sie vermeidest

Lesedauer 10 Minuten
Inhalt

Als Lehrer:in oder Erzieher:in nutzt du wahrscheinlich bereits KI-Tools wie ChatGPT, Claude oder Gemini für deine Unterrichtsvorbereitung. Doch hast du schon einmal erlebt, dass eine KI dir mit großer Selbstsicherheit völlig falsche Informationen präsentiert hat? Dieses Phänomen nennt man KI Halluzinationen – und es ist eines der größten Risiken beim Einsatz künstlicher Intelligenz im Bildungsbereich.

In diesem umfassenden Leitfaden erfährst du, was KI Halluzinationen sind, warum sie entstehen und vor allem: wie du sie erkennst und vermeidest. Denn nur wer die Mechanismen versteht, kann KI verantwortungsvoll im Unterricht einsetzen.

Was sind KI Halluzinationen? Definition und Beispiele

KI Halluzinationen sind ein Phänomen, bei dem große Sprachmodelle (Large Language Models, LLMs) Informationen generieren, die faktisch falsch, unsinnig oder frei erfunden sind – diese aber mit absoluter Überzeugung präsentieren. Der Begriff mag paradox klingen, schließlich assoziieren wir Halluzinationen normalerweise mit menschlichen Gehirnen. Doch die Metapher trifft den Kern: Die KI „sieht“ Muster oder Zusammenhänge, die nicht existieren, und produziert daraus scheinbar plausible, aber falsche Ausgaben.

Im Gegensatz zu einem Taschenrechner, der deterministisch arbeitet und immer das gleiche korrekte Ergebnis liefert, funktionieren Sprachmodelle stochastisch. Sie berechnen Wahrscheinlichkeiten für das nächste Wort in einer Sequenz – und können dabei grandios danebenliegen.

Konkrete Beispiele für KI Halluzinationen im Bildungskontext

Stell dir vor, du fragst ChatGPT nach den Ursachen des Ersten Weltkriegs für deine 9. Klasse. Die KI antwortet eloquent und detailliert – nennt aber fälschlicherweise den „Vertrag von Paris 1913“ als Auslöser. Dieser Vertrag existiert nicht, klingt aber plausibel. Oder du bittest um Literaturempfehlungen zu einem speziellen Thema, und die KI erfindet Buchtitel mit Autor:innen, ISBN-Nummern und Verlagen – alles komplett frei erfunden, aber perfekt formatiert.

Ein besonders problematisches Beispiel aus der Praxis: Ein Anwalt nutzte ChatGPT für eine Recherche und reichte ein Schreiben ein, das auf sechs komplett erfundenen Gerichtsurteilen basierte. Die KI hatte die Urteile inklusive Aktenzeichen und Zusammenfassungen halluziniert. In der Schule könnte ein:e Schüler:in ähnlich auf KI Halluzinationen hereinfallen und fehlerhafte Informationen in Referaten oder Hausarbeiten verwenden.

Aktuelle Studien zeigen alarmierende Zahlen: ChatGPT liegt bei etwa 40 Prozent der Quellenangaben falsch, Gemini sogar bei 80 Prozent der Referenzen. Nur Claude schneidet mit einer Halluzinationsrate von 17 Prozent deutlich besser ab. Das bedeutet: KI Halluzinationen sind kein seltenes Phänomen, sondern ein systematisches Problem.

Warum entstehen KI Halluzinationen? Die Ursachen verstehen

Um KI Halluzinationen effektiv vermeiden zu können, musst du verstehen, warum sie überhaupt entstehen. Die Gründe sind vielfältig und liegen in der Funktionsweise der Modelle selbst:

1. Unzureichende oder fehlerhafte Trainingsdaten

KI-Modelle lernen aus riesigen Datenmengen – oft Milliarden von Texten aus dem Internet. Wenn diese Trainingsdaten lückenhaft, veraltet oder falsch sind, reproduziert die KI diese Fehler. Besonders problematisch: Wenn zu einem Nischenthema nur wenige oder gar keine Informationen vorliegen, erfindet die KI plausibel klingende Antworten, anstatt ihre Unwissenheit zuzugeben.

Ein Beispiel: Wenn du nach touristischen Attraktionen in einer kleinen, unbekannten Stadt fragst, halluziniert die KI oft Sehenswürdigkeiten, die nicht existieren – einfach weil sie zu wenig Daten über diesen Ort hat.

2. Bias und Verzerrungen in den Daten

Wenn Trainingsdaten einseitig sind, zeigt sich das in den Ergebnissen. Ein KI-Modell, das überwiegend mit Texten über männliche Ärzte trainiert wurde, könnte fälschlicherweise behaupten, alle Ärzte seien männlich. Auch nutzergenerierte Inhalte aus sozialen Medien oder Foren können Meinungen als Fakten präsentieren und so zu KI Halluzinationen führen.

3. Fehlerhafte Schlussfolgerungen und logische Lücken

KI-Modelle haben kein Verständnis für Kausalität oder logische Zusammenhänge. Sie können zwei korrekte Fakten falsch kombinieren. Ein klassisches Beispiel:

  • Fakt 1: Albert Einstein erhielt den Nobelpreis für Physik
  • Fakt 2: Albert Einstein entwickelte die Relativitätstheorie
  • Falsche KI-Schlussfolgerung: Einstein erhielt den Nobelpreis für die Relativitätstheorie

Tatsächlich erhielt er den Preis für seine Erklärung des photoelektrischen Effekts – ein typischer Fall von KI Halluzinationen durch Fehlschlüsse.

4. Keine Kenntnis eigener Wissensgrenzen

Im Gegensatz zu Menschen wissen KI-Systeme nicht, was sie nicht wissen. Sie haben kein Bewusstsein für Unsicherheit. Während ein:e Lehrer:in sagen würde „Das weiß ich nicht genau, ich recherchiere das“, antwortet die KI mit derselben Selbstsicherheit auf Fragen, zu denen sie keine verlässlichen Daten hat – und halluziniert die Antwort.

5. Falsche Anreizsysteme beim Training

Eine bahnbrechende Erkenntnis von OpenAI: KI Halluzinationen werden durch die Art verstärkt, wie Modelle trainiert und bewertet werden. Bei Standard-Tests werden Modelle dafür belohnt, dass sie raten, anstatt zuzugeben, dass sie etwas nicht wissen. Ähnlich wie bei einem Multiple-Choice-Test: Eine geratene Antwort hat eine Chance, richtig zu sein – Enthaltung bringt garantiert null Punkte.

Daher lernen KI-Modelle, im Zweifel lieber eine Antwort zu erfinden, als keine zu geben. Das ist der Kern des Problems der KI Halluzinationen.

Arten von KI Halluzinationen: Von harmlosen Fehlern bis zu gefährlichen Fehlinformationen

Nicht alle KI Halluzinationen sind gleich. Sie lassen sich in verschiedene Kategorien einteilen:

Sachliche Fehler

Die KI gibt faktisch falsche Informationen, etwa historische Ungenauigkeiten, falsche Jahreszahlen oder wissenschaftliche Unwahrheiten. Beispiel: „Leonardo da Vinci malte die Mona Lisa im Jahr 1815“ – rund 300 Jahre zu spät.

Fabrizierte Inhalte

Die KI erfindet komplette Geschichten, Quellen oder Referenzen, die niemals existiert haben. Besonders tückisch: Diese erfundenen Inhalte sind oft so detailliert (mit Seitenzahlen, Zitaten, ISBN), dass sie authentisch wirken.

Unsinnige Ausgaben

Manchmal produziert KI völlig absurde Antworten, die keiner Logik folgen. Googles Gemini antwortete auf die Frage nach Früchten, die auf „-um“ enden, mit „applum, bananum, strawberrum, tomatum“ – allesamt erfundene Wörter.

Mathematische Halluzinationen

Selbst bei einfachen Rechenaufgaben können KI Halluzinationen auftreten. Ältere Modelle scheiterten oft an Grundrechenarten, neuere haben Probleme mit komplexeren Aufgaben oder ungewöhnlichen Zahlen, die in den Trainingsdaten unterrepräsentiert sind.

Die Gefahren von KI Halluzinationen im Bildungsbereich

Für dich als Lehrkraft sind KI Halluzinationen besonders problematisch. Sie können:

  • Fehlinformationen verbreiten: Schüler:innen übernehmen falsche Fakten in ihre Arbeiten
  • Kritisches Denken untergraben: Wenn KI als „allwissend“ wahrgenommen wird, hinterfragen Lernende Informationen nicht mehr
  • Vertrauen in Technologie missbrauchen: Die überzeugende Darstellung falscher Inhalte macht KI Halluzinationen besonders gefährlich
  • Rechtliche Konsequenzen haben: Wie das Anwalts-Beispiel zeigt, können erfundene Informationen ernsthafte Folgen haben
  • Soziale Ungerechtigkeiten verstärken: Wenn nur Lernende mit kritischer Medienkompetenz KI Halluzinationen erkennen, wächst die Bildungskluft

Eine aktuelle Studie der Europäischen Rundfunkunion zeigte: Populäre KI-Chatbots machen bei 40 Prozent der Antworten Fehler. Das ist keine Ausnahme, sondern die Regel – und macht deutlich, warum du als Pädagog:in KI Halluzinationen ernst nehmen musst.

So erkennst du KI Halluzinationen: Praktische Tipps für den Alltag

Die gute Nachricht: Es gibt konkrete Strategien, mit denen du KI Halluzinationen identifizieren kannst.

1. Kritisches Hinterfragen – immer

Behandle KI-Antworten nie als absolute Wahrheit. Frage dich:

  • Klingt die Antwort zu perfekt oder zu detailliert?
  • Werden konkrete Quellen genannt, die du überprüfen kannst?
  • Macht die Antwort logisch Sinn?
  • Passt die Information zu deinem Vorwissen?

2. Faktencheck mit verlässlichen Quellen

Überprüfe wichtige Informationen immer mit unabhängigen, vertrauenswürdigen Quellen. Nutze:

  • Wissenschaftliche Datenbanken
  • Offizielle Institutionen (z.B. Statistische Ämter, Regierungsseiten)
  • Anerkannte Bildungsmedien
  • Fachliteratur

Niemals solltest du KI-generierte Quellenangaben ungeprüft übernehmen.

3. Cross-Checking mit mehreren KI-Tools

Stelle die gleiche Frage an verschiedene KI-Modelle. Wenn ChatGPT, Claude und Gemini unterschiedliche Antworten geben, ist Vorsicht geboten. Übereinstimmungen sind ein gutes Zeichen – aber kein Beweis.

4. Konsistenzprüfungen durchführen

Stelle Folgefragen, die logisch aufeinander aufbauen. KI Halluzinationen zeigen sich oft durch Widersprüche. Beispiel:

  • Frage 1: „Ist 3.821 eine Primzahl?“
  • KI: „Nein, sie ist durch 53 und 72 teilbar.“
  • Frage 2: „Was ist 53 mal 72?“
  • KI: „3.816“
  • Du erkennst: Die Antworten widersprechen sich – es liegt eine KI Halluzination vor.

5. Nach Unsicherheit fragen

Bitte die KI explizit, ihre Unsicherheit anzugeben: „Wie sicher bist du dir bei dieser Antwort? Gibt es Informationen, die fehlen könnten?“ Viele neuere Modelle können ihre Grenzen besser kommunizieren.

6. Spezifische Themen vorsichtig behandeln

Sei besonders skeptisch bei:

  • Nischenthemen mit wenig verfügbaren Daten
  • Aktuellen Ereignissen (Modelle haben ein Trainingsdaten-Cutoff)
  • Regionalen Informationen zu kleinen Orten
  • Spezialisierten Fachgebieten (Medizin, Recht, Wissenschaft)

Bei diesen Themen sind KI Halluzinationen besonders wahrscheinlich.

Wie du KI Halluzinationen vermeidest: Strategien für Lehrkräfte

Jetzt weißt du, wie du KI Halluzinationen erkennst. Aber noch wichtiger: Wie kannst du sie von vornherein verhindern?

1. Das richtige KI-Modell wählen

Nicht alle KI-Tools sind gleich anfällig für KI Halluzinationen. Wähle Modelle mit:

  • Integrierter Web-Suche für aktuelle Informationen (z.B. ChatGPT mit Websuche, Perplexity, Gemini)
  • Niedrigen Halluzinationsraten (Claude liegt bei nur 17 Prozent)
  • Transparenten Quellenangaben, die du überprüfen kannst

Für faktentreue Aufgaben ist Claude die beste Wahl im Vergleich. Für kreative Aufgaben, bei denen exakte Fakten weniger wichtig sind, sind KI Halluzinationen weniger kritisch.

2. Prompt Engineering: Präzise Anfragen stellen

Die Qualität deiner Prompts beeinflusst direkt das Risiko von KI Halluzinationen. Befolge diese Regeln:

Sei spezifisch: Anstatt „Erkläre Photosynthese“ besser: „Erkläre die Lichtreaktion der Photosynthese für Schüler:innen der 9. Klasse, mit einem Fokus auf die Rolle von Chlorophyll. Nenne nur wissenschaftlich belegte Fakten.“

Fordere Quellenangaben: „Beantworte die Frage und gib für jede Aussage eine überprüfbare Quelle an.“

Setze Grenzen: „Wenn du dir unsicher bist oder die Informationen nicht kennst, sage das explizit, anstatt zu raten.“

Nutze Chain-of-Thought Prompting: „Erkläre Schritt für Schritt, wie du zu dieser Antwort kommst“ – das reduziert KI Halluzinationen um bis zu 20 Prozent.

Auf Lehrwert.com findest du einen umfassenden Leitfaden zu Prompt Engineering, der dir zeigt, wie du KI-Tools optimal nutzt und KI Halluzinationen minimierst.

3. Retrieval-Augmented Generation (RAG) nutzen

RAG ist eine Technik, bei der die KI nicht nur auf ihr internes Wissen zurückgreift, sondern auf eine kuratierte Wissensbasis zugreifen kann. Du gibst der KI konkrete Dokumente, Lehrmaterialien oder Datenbanken, aus denen sie Informationen ziehen soll.

Beispiel: „Beantworte die Frage ausschließlich basierend auf diesem Lehrbuch [PDF hochladen]. Wenn die Antwort nicht im Text steht, sage das.“

Das reduziert KI Halluzinationen drastisch, weil die KI nicht mehr auf unsichere Muster aus den Trainingsdaten angewiesen ist.

4. Temperatur-Einstellungen anpassen

Viele KI-Tools erlauben es, die „Temperatur“ anzupassen – ein Parameter, der steuert, wie „kreativ“ oder „konservativ“ die Antworten sind. Eine niedrige Temperatur (z.B. 0.3) reduziert KI Halluzinationen, weil die KI weniger spekulativ antwortet.

Prompt-Beispiel: „Beantworte folgende Frage mit einer Temperatur von 0.5, um Halluzinationen zu vermeiden: Wann malte Leonardo da Vinci die Mona Lisa?“

5. Guardrails und Filter einsetzen

Technische Schutzmechanismen (Guardrails) können KI-Ausgaben in Echtzeit überwachen und problematische Antworten erkennen. Für den Schulalltag gibt es spezialisierte Tools wie fobizzschulKI oder Kiwi, die bereits mit solchen Mechanismen arbeiten und DSGVO-konform sind.

Diese Tools sind speziell für den deutschen Bildungsmarkt entwickelt und minimieren das Risiko von KI Halluzinationen durch zusätzliche Prüfungsebenen.

6. Menschliche Überprüfung – immer

Die wichtigste Regel: Verlasse dich nie blind auf KI. Plane Zeit für die Nachbearbeitung ein (die 80/20-Regel: 80 % KI-generiert, 20 % menschliche Überprüfung). Du bist die Expertin bzw. der Experte – nutze dein pädagogisches Fachwissen, um KI Halluzinationen zu identifizieren und zu korrigieren.

KI Halluzinationen im Unterricht thematisieren

Eine der wichtigsten Aufgaben als Lehrkraft: Schüler:innen über KI Halluzinationen aufklären. Nur wer das Phänomen versteht, kann kritisch mit KI-generierten Inhalten umgehen.

Unterrichtsideen zu KI Halluzinationen

Experiment: Halluzinationen provozieren
Bitte Schüler:innen, bewusst nach Informationen zu fragen, die wahrscheinlich zu KI Halluzinationen führen (z.B. obskure historische Ereignisse, fiktive Personen). Analysiert gemeinsam, woran man die Fehler erkennt.

Quellencheck-Challenge
Gebt einer KI die Aufgabe, Literaturempfehlungen mit ISBN-Nummern zu generieren. Schüler:innen überprüfen, ob die Quellen wirklich existieren – ein praktisches Training im Faktencheck.

KI vs. Mensch: Wer halluziniert mehr?
Diskutiert, dass auch Menschen „halluzinieren“ (Fehlerinnerungen, Confirmation Bias). Was sind die Unterschiede? Wie gehen wir damit um?

Ethik-Diskussion
Wer trägt die Verantwortung, wenn ein:e Schüler:in durch KI Halluzinationen falsche Informationen verbreitet? Die KI? Der Anbieter? Die nutzende Person?

Diese Thematisierung fördert Medienkompetenz und kritisches Denken – zwei Schlüsselkompetenzen für die Zukunft.

Die Zukunft: Werden KI Halluzinationen jemals verschwinden?

Die schlechte Nachricht zuerst: KI Halluzinationen lassen sich niemals vollständig verhindern. Die stochastische Natur von Sprachmodellen macht Fehler unvermeidbar. Expert:innen sind sich einig: Selbst mit besseren Trainingsdaten und verfeinerten Algorithmen bleibt ein Restrisiko.

Die gute Nachricht: Es gibt Fortschritte. OpenAI, Anthropic und Google arbeiten intensiv daran, KI Halluzinationen zu reduzieren. Neue Ansätze umfassen:

  • Reasoning-Modelle (wie OpenAI’s o3), die strukturierter „denken“ und Antworten in Zwischenschritten validieren
  • Bessere Benchmarks, die Modelle nicht fürs Raten belohnen, sondern fürs Eingestehen von Unsicherheit
  • Self-Consistency-Checks, bei denen die KI ihre eigenen Antworten mehrfach generiert und auf Widersprüche prüft
  • Chain-of-Verification (CoVe), bei dem die KI Behauptungen systematisch verifiziert

Neuere Modelle wie Claude 4 Sonnet oder GPT-5 zeigen bereits deutlich niedrigere Halluzinationsraten als ihre Vorgänger. Die Entwicklung geht in die richtige Richtung – aber du musst weiterhin wachsam bleiben.

Datenschutz und KI Halluzinationen: Ein wichtiger Zusammenhang

Ein oft übersehener Aspekt: KI Halluzinationen können auch datenschutzrelevant sein. Wenn eine KI personenbezogene Daten halluziniert (z.B. falsche Informationen über Schüler:innen generiert), verstößt das möglicherweise gegen die DSGVO.

Daher: Gib niemals personenbezogene Daten von Schüler:innen in KI-Tools ein. Nutze anonymisierte Beispiele und achte auf DSGVO-konforme Tools. Mehr dazu erfährst du im Artikel DSGVO und AI Act im Klassenzimmer.

Deine nächsten Schritte: KI-Kompetenz systematisch aufbauen

Du siehst: Das Thema KI Halluzinationen ist komplex. Um KI-Tools verantwortungsvoll im Bildungsbereich einzusetzen, brauchst du fundierte KI-Kompetenz. Nur wer versteht, wie KI funktioniert, welche Limitationen es gibt und wie man die Tools optimal nutzt, kann KI Halluzinationen effektiv vermeiden.

Der KI-Kompetenz Kurs für Bildungsprofis bietet dir eine systematische Lernreise: von den Grundlagen künstlicher Intelligenz über rechtliche Rahmenbedingungen (DSGVO, AI Act) bis hin zu didaktischen Einsatzszenarien. Du lernst nicht nur Theorie, sondern erhältst praktische Strategien für deinen Schulalltag – inklusive professionellem Zertifikat.

Besonders relevant: Der Kurs behandelt ausführlich das Thema KI Halluzinationen, zeigt dir Techniken zur Erkennung und Vermeidung und gibt dir Werkzeuge an die Hand, um deine Schüler:innen zu kompetenten KI-Nutzer:innen zu machen. Perfekt für Lehrkräfte, die sich umfassend fortbilden möchten.

Weitere hilfreiche Ressourcen auf Lehrwert.com:

FAQ: Häufig gestellte Fragen zu KI Halluzinationen

Was sind KI Halluzinationen einfach erklärt?

KI Halluzinationen sind falsche, unsinnige oder frei erfundene Informationen, die künstliche Intelligenz generiert, aber mit großer Überzeugung als Fakten präsentiert. Die KI „sieht“ Muster, die nicht existieren, und produziert daraus scheinbar plausible, aber falsche Ausgaben – ähnlich wie bei menschlichen Halluzinationen.

Warum halluzinieren KI-Modelle?

Die Hauptursachen für KI Halluzinationen sind: unzureichende oder fehlerhafte Trainingsdaten, Bias und Verzerrungen, fehlerhafte logische Schlussfolgerungen, keine Kenntnis eigener Wissensgrenzen und falsche Anreizsysteme beim Training. KI-Modelle funktionieren stochastisch (basierend auf Wahrscheinlichkeiten), nicht deterministisch wie ein Taschenrechner.

Welche KI halluziniert am wenigsten?

Im direkten Vergleich hat Claude mit nur 17 Prozent die niedrigste Halluzinationsrate, gefolgt von ChatGPT mit etwa 40 Prozent bei Quellenangaben. Gemini schneidet bei Referenzen mit 80 Prozent Fehlerquote schlechter ab, ist aber bei faktischen Aussagen innerhalb des Trainingsmaterials genau. Für faktentreue Aufgaben ist Claude die sicherste Wahl.

Sind KI Halluzinationen vermeidbar?

Nein, KI Halluzinationen lassen sich nicht vollständig vermeiden – sie sind ein inhärentes Problem der stochastischen Funktionsweise von Sprachmodellen. Expert:innen sind sich einig: Halluzinationen können minimiert, aber nie gänzlich beseitigt werden. Mit den richtigen Strategien (Prompt Engineering, RAG, Faktencheck) lässt sich das Risiko jedoch deutlich reduzieren.

Wie erkenne ich KI Halluzinationen?

Du erkennst KI Halluzinationen durch: kritisches Hinterfragen aller Antworten, Faktencheck mit unabhängigen Quellen, Cross-Checking mit mehreren KI-Tools, Konsistenzprüfungen durch Folgefragen, Nachfragen nach Unsicherheit und besondere Vorsicht bei Nischenthemen, aktuellen Ereignissen und spezialisierten Fachgebieten.

Welche Prompting-Techniken reduzieren KI Halluzinationen?

Effektive Techniken gegen KI Halluzinationen sind: Chain-of-Thought Prompting (schrittweises Erklären), niedrige Temperatur-Einstellungen (z.B. 0.3-0.5), explizite Quellenanforderungen, klare Grenzsetzung („Sage, wenn du unsicher bist“), spezifische und detaillierte Anfragen sowie Retrieval-Augmented Generation (RAG) mit kuratierter Wissensbasis.

Sind KI Halluzinationen gefährlich?

Ja, KI Halluzinationen können erhebliche Risiken bergen: Verbreitung von Fehlinformationen, Untergraben kritischen Denkens, rechtliche Konsequenzen (wie im Fall des Anwalts mit erfundenen Urteilen), Verstärkung sozialer Ungerechtigkeiten und Missbrauch von Vertrauen in Technologie. Im Bildungsbereich können sie zu falschen Lerninhalten und mangelnder Medienkompetenz führen.

Wie thematisiere ich KI Halluzinationen im Unterricht?

Sinnvolle Unterrichtsansätze: Experimente, um bewusst KI Halluzinationen zu provozieren, Quellencheck-Challenges mit ISBN-Nummern, Vergleich KI vs. menschliche „Halluzinationen“ (Fehlerinnerungen), Ethik-Diskussionen über Verantwortung und praktische Übungen zum Faktencheck. Das fördert Medienkompetenz und kritisches Denken.

Welche Tools helfen gegen KI Halluzinationen im Schulkontext?

Für den deutschen Bildungsmarkt entwickelte, DSGVO-konforme Tools wie fobizzschulKI oder Kiwi haben integrierte Schutzmechanismen gegen KI Halluzinationen. Sie bieten Guardrails, Quellenvalidierung und sind speziell für den pädagogischen Einsatz konzipiert. Zusätzlich solltest du immer mit präzisen Prompts arbeiten und Ergebnisse überprüfen.

Werden KI Halluzinationen in Zukunft verschwinden?

Nein, KI Halluzinationen werden nie vollständig verschwinden, aber die Raten sinken kontinuierlich. Neue Entwicklungen wie Reasoning-Modelle (OpenAI o3), verbesserte Benchmarks, Self-Consistency-Checks und Chain-of-Verification (CoVe) reduzieren das Problem. Neuere Modelle wie Claude 4 oder GPT-5 zeigen bereits deutliche Verbesserungen gegenüber Vorgängern.

Was hat Datenschutz mit KI Halluzinationen zu tun?

KI Halluzinationen können datenschutzrelevant sein, wenn die KI personenbezogene Daten halluziniert (z.B. falsche Informationen über Schüler:innen). Das kann DSGVO-Verstöße darstellen. Daher: Gib niemals personenbezogene Daten in KI-Tools ein, nutze anonymisierte Beispiele und achte auf DSGVO-konforme Bildungstools. Mehr Infos im Artikel zu DSGVO und AI Act im Klassenzimmer.

Fazit: Mit Wissen gegen KI Halluzinationen

KI Halluzinationen sind keine Science-Fiction, sondern ein reales Problem, das du als Lehrkraft kennen und verstehen musst. Sie entstehen durch die Art, wie KI-Modelle funktionieren, und lassen sich nie vollständig vermeiden – aber mit den richtigen Strategien drastisch reduzieren.

Die wichtigsten Erkenntnisse:

  • KI Halluzinationen sind systematisch, keine Ausnahme (40-80 % Fehlerquote je nach Modell)
  • Sie entstehen durch unzureichende Daten, Bias, Fehlschlüsse und falsche Trainingsan reize
  • Mit Prompt Engineering, RAG, Faktencheck und kritischem Denken kannst du KI Halluzinationen minimieren
  • Die Thematisierung im Unterricht ist essentiell für Medienkompetenz
  • Menschliche Überprüfung bleibt unverzichtbar

KI ist ein mächtiges Werkzeug für den Bildungsbereich – aber nur, wenn du es verantwortungsvoll einsetzt. KI Halluzinationen zu verstehen und zu vermeiden ist Teil dieser Verantwortung. Nutze die Tools in diesem Artikel, bilde dich kontinuierlich fort und bleibe kritisch. So schützt du dich und deine Schüler:innen vor den Risiken und nutzt gleichzeitig das enorme Potenzial der Technologie.

Die Zukunft der Bildung ist hybrid: Menschliche Expertise kombiniert mit KI-Unterstützung. Deine pädagogische Kompetenz, deine Empathie und dein kritisches Denken bleiben unersetzlich – gerade im Umgang mit KI Halluzinationen.

Transparenz: Manche Links sind Affiliate-Links. Für Dich entstehen keine Kosten, aber wir erhalten eine kleine Provision zur Unterstützung unserer Arbeit.

ChatGPT vs Claude vs Gemini – Welches KI-Tool passt zu mir als Pädagoge ?

Lesedauer 5 Minuten
Inhalt


Du stehst im Lehrerzimmer, der Kaffee läuft durch, und schon wieder fragt jemand: „Sag mal, nutzt du eigentlich schon dieses KI-Zeug? Welches ist denn jetzt das Beste?“
Und genau da fängt das Problem an. Es gibt nicht „das Beste“. Es gibt nur das Tool, das dir heute am meisten Arbeit abnimmt – und das, was dich nur nervt.

Ich habe mir die drei großen Platzhirsche – ChatGPT, Claude und Gemini – mal im Alltagstest vorgenommen. Ohne Technik-Blabla, sondern mit der Frage: Was hilft dir wirklich, wenn du Unterricht planst, Elternbriefe schreibst oder einfach mal fünf Minuten Zeit sparen willst?

Die Kandidaten im Schnelldurchlauf

Bevor wir ins Detail gehen, hier die Kurzfassung für Eilige:

  • ChatGPT ist der Alleskönner. Perfekt für kreative Ideen, Brainstorming und wenn du einfach mal schnell einen Entwurf brauchst.
  • Claude ist der Gründliche. Wenn du lange Texte zusammenfassen musst oder Wert auf einen sehr menschlichen, feinen Schreibstil legst, ist er dein Freund.
  • Gemini ist der Google-Insider. Wenn du eh schon alles in Google Docs und Drive machst, spart er dir das ständige Hin- und Herkopieren.

Aber schauen wir uns das mal genauer an.


1. ChatGPT – Der kreative Chaot (im positiven Sinne)

ChatGPT ist ein bisschen wie der Kollege, der immer tausend Ideen hat. Manchmal schießt er übers Ziel hinaus, aber er liefert dir verlässlich Material.

Was er super kann:

  • Ideen sprudeln: „Gib mir 5 Einstiege für das Thema Mittelalter in Klasse 7.“ Zack, da sind sie.
  • Bilder malen: Mit der Plus-Version kannst du direkt passende Bilder für Arbeitsblätter erstellen lassen.
  • Gedächtnis: Er merkt sich, was du ihm letzte Woche über deine 8b erzählt hast (wenn du das willst).

Praxis-Test: Der Elternbrief
Ich habe ihn gebeten: „Schreibe einen kurzen Elternbrief zum Wandertag, der freundlich klingt, aber klar macht: Regenjacke ist Pflicht!“
Das Ergebnis war solide, musste aber noch etwas „entbürokratisiert“ werden. ChatGPT liebt Wörter wie „diesbezüglich“ oder „verbindlich“. Mit einem kurzen „Mach es lockerer“ war es dann aber perfekt.

Wo es hakt:
Er erzählt gern mal Quatsch, vor allem bei Fakten und Quellen. Wenn du ihn nach aktuellen Studien fragst, halluziniert er manchmal munter drauf los. Also: Immer den Faktencheck machen!

Für wen ist das was?
Für alle, die einen kreativen Sparringspartner suchen und keine Lust haben, vor einem leeren Blatt Papier zu sitzen.


2. Claude – Der höfliche Perfektionist

Claude wirkt oft ein bisschen „erwachsener“ als ChatGPT. Er schreibt Texte, die oft weniger nach Roboter klingen und mehr nach Mensch.

Was er super kann:

  • Lange Texte: Du kannst ihm ganze PDFs oder lange Artikel geben, und er fasst sie dir sauber zusammen.
  • Stil: Seine Texte klingen oft runder, weniger hölzern. Wenn du einen sensiblen Elternbrief formulieren musst, ist Claude oft die bessere Wahl.
  • Sicherheit: Er ist so programmiert, dass er bei heiklen Themen eher vorsichtig ist.

Praxis-Test: Text vereinfachen
Ich habe Claude einen komplizierten Sachtext über Photosynthese gegeben mit dem Prompt: „Schreibe das so um, dass es ein Fünftklässler versteht, der Bio eigentlich langweilig findet.“
Das Ergebnis war beeindruckend: Claude hat nicht nur die Sätze gekürzt, sondern auch eine tolle Analogie (mit einer Fabrik) eingebaut, ohne dass ich danach gefragt hatte. Das hat ChatGPT im direkten Vergleich nicht so elegant hinbekommen.

Wo es hakt:
Er hat keinen direkten Draht ins Internet (in der Basisversion). Aktuelle Nachrichten oder Wetterdaten? Fehlanzeige.

Für wen ist das was?
Für alle, die viel Text verarbeiten müssen oder Wert auf sprachlich feine Nuancen legen – zum Beispiel im Deutsch- oder Geschichtsunterricht.

🔥

Spare jede Woche Stunden — ohne extra Stress.

Du rennst ständig gegen die Zeit – zwischen Unterricht, Planung, Elternkommunikation und Dokumentation. Das E-Book „Entspannter durch den Bildungsalltag“ zeigt dir 10 konkrete Stress-Strategien und 25 fertige KI-Prompts, die du sofort nutzen kannst. Für mehr Ruhe, Klarheit und Energie.

  • ⏱️ Weniger Schreibarbeit durch KI-Vorlagen
  • Schnellere Wochenplanung (30 Min statt 2 Std)
  • ❤️ Mehr Zeit für die Kinder – nicht für Papier
  • 💚 Feierabend-Rituale zum Abschalten
Zum kostenlosen eBook

Kostenlos • 10 Strategien + 25 Prompts • Sofort-Download


3. Gemini – Der Google-Native

Gemini ist Googles Antwort. Und sein riesiger Vorteil ist: Er wohnt da, wo du vielleicht auch arbeitest.

Was er super kann:

  • Alles an einem Ort: Er kann direkt auf deine Google Docs, Mails und Drive-Dateien zugreifen. „Fasse mir das Dokument ‚Lehrplan Mathe‘ zusammen“ funktioniert ohne Hochladen.
  • Recherche: Da Google dahintersteckt, sind die Infos oft aktueller und besser mit Quellen belegt (aber auch hier: Blind vertrauen ist nicht!).
  • Kostenlos stark: Die Gratis-Version kann schon verdammt viel, während die anderen ihre besten Features oft hinter der Bezahlschranke verstecken.

Praxis-Test: Unterrichtsreihe planen
Ich wollte eine Reihe zum Thema „Klimawandel“ planen und habe gefragt: „Erstelle mir einen Wochenplan zum Thema Klimawandel und suche mir direkt 3 passende YouTube-Videos raus für den Unterricht klasse 8.“
Gemini hat den Plan erstellt und die YouTube-Links direkt eingebettet – anklickbar und passend. Das kann so in der Form nur er.

Wo es hakt:
Kreativ ist er manchmal etwas… nüchtern. Seine Texte klingen oft funktionaler als die von ChatGPT.

Für wen ist das was?
Für alle, die ihr digitales Leben eh schon in der Google-Welt organisiert haben und keine Lust auf ständiges Tab-Wechseln haben.


Das heiße Eisen: Was ist mit dem Datenschutz?

Bevor du loslegst, ein ernstes Wort. Als Lehrkraft oder Erzieher:in hast du Verantwortung für Daten. Und da gilt bei allen drei Tools eine goldene Regel:

Niemals, wirklich niemals, echte Namen oder sensible Daten von Schülern oder Eltern eingeben.

  • Okay: „Schreibe einen Förderplan für einen Schüler mit Lese-Rechtschreib-Schwäche in Klasse 3.“
  • Nicht okay: „Schreibe einen Förderplan für Kevin Müller, geboren am…“

Die Tools lernen (oft) mit dem, was du ihnen fütterst. Und Kevins Daten haben in Kalifornien nichts verloren.

Wer ist da am sichersten?

  • Für private Accounts: Alle drei sind ähnlich „unsicher“ für sensible Daten. OpenAI (ChatGPT) und Google (Gemini) bieten zwar Einstellungen, um das Training mit deinen Daten auszuschalten, aber für Schülerdaten reicht das nicht.
  • Für Schulen: Wenn deine Schule eine offizielle Lizenz hat (z.B. Microsoft Copilot mit Datenschutz, ChatGPT Enterprise oder Google Workspace for Education), sieht es anders aus. Da gibt es Verträge, die garantieren, dass deine Daten nicht zum Training genutzt werden. Frag da unbedingt deinen Admin!

Im Zweifel gilt immer: Anonymisieren. Mach aus „Lisa“ einfach „Schülerin A“ – der KI ist das egal, dem Datenschutzbeauftragten nicht.


Mein Fazit: ChatGPT vs Claude vs Gemini, wer gewinnt?

Lass dich nicht verrückt machen von Feature-Listen und Tech-Geek-Diskussionen. Am Ende zählt nur eins: Hilft es dir?

Mein Tipp für den Start:

  1. Hol dir ChatGPT (auch die kostenlose Version reicht für den Anfang), um Ideen zu generieren und Schreibblockaden zu lösen.
  2. Wenn du Google Workspace nutzt, probier Gemini aus, um dir Klickwege zu sparen.
  3. Und wenn du mal einen wirklich langen, komplexen Text bändigen musst, gib Claude eine Chance.

Probier es einfach mal aus – nicht als zusätzliche Aufgabe, sondern als kleine Entlastung, wenn der Schreibtisch wieder voll ist. Und wenn die KI mal wieder Quatsch schreibt: Lächeln, korrigieren, weitermachen. Wir kennen das ja von den Kindern. 😉

FAQ – Die wichtigsten Fragen kurz & knapp

Ist Gemini wirklich komplett kostenlos?
Ja, die Basisversion ist gratis. Wenn deine Schule Google Workspace for Education nutzt, ist auch die Datenschutz-sichere Version oft kostenlos dabei.

Welches Tool halluziniert am wenigsten?
In Tests schneidet Claude oft am besten ab, wenn es um Fakten geht. ChatGPT ist kreativer, erfindet aber auch mal was. Gemini liegt dazwischen. Trotzdem gilt: Immer gegenprüfen!

Darf ich Schülertexte von der KI korrigieren lassen?
Jein. Nur wenn die Texte absolut anonymisiert sind (keine Namen, keine Orte). Bei offiziellen Schullizenzen (z.B. Fobizz, Microsoft Copilot mit Datenschutz) sieht es besser aus – frag da unbedingt deine Schulleitung.

Kann ich ChatGPT Bilder malen lassen?
Ja, aber nur in der Bezahlversion (Plus). Gemini kann es in manchen Versionen auch, Claude aktuell noch nicht.

Lohnt sich das Abo für 20 Euro?
Wenn du KI täglich nutzt: Absolut. Die Bezahl-Modelle sind schlauer, schneller und können mehr (z.B. Bilder, Datei-Uploads). Für den Anfang reicht aber die Gratis-Version völlig aus.


Weiterführende Ressourcen auf Lehrwert.com:

🎓

KI-Kompetenz für Bildungsprofis – Dein strukturierter Einstieg.

Du möchtest KI systematisch und mit Zertifikat meistern? Der Online-Kurs „KI-Kompetenz für Bildungsprofis“ von Lairnen zeigt dir in flexiblen Lernzeiten, wie du KI professionell in deinem Unterrichts-Alltag einsetzt – mit praktischen Beispielen, sofort umsetzbaren Workflows und offiziellem Zertifikat nach Abschluss.

  • 📜 Offizielles Zertifikat nach Kursabschluss
  • ⏱️ Flexible Lernzeiten – im eigenen Tempo
  • 🎯 Praxisbeispiele speziell für Bildung
  • 👥 Sonderkonditionen für Teams & Organisationen
Zum Kurs

Online-Kurs • Mit Zertifikat • Für Einzelne & Teams

Transparenz: Manche Links sind Affiliate-Links. Für Dich entstehen keine Kosten, aber wir erhalten eine kleine Provision zur Unterstützung unserer Arbeit.

Prompt Engineering für Anfänger: So formulierst du 2025 die perfekten ChatGPT-Befehle

Lesedauer 7 Minuten
Inhalt

Warum deine Prompts entscheidend sind

Du sitzt vor ChatGPT und fragst dich: Warum bekomme ich nicht die Antwort, die ich brauche? Wahrscheinlich liegt es nicht an der KI selbst – sondern an der Frage, die du stellst.

Das ist das Geheimnis, das viele Lehrer und Erzieher nicht kennen: Die Qualität deiner Ergebnisse hängt fast vollständig davon ab, wie du deine Anfrage formulierst. Prompt Engineering ist nichts Kompliziertes. Es ist eine Fähigkeit, die du in wenigen Minuten lernen kannst – und die dich danach stundenlang Arbeit sparen wird.

Wenn du ChatGPT für die Unterrichtsplanung mit KI nutzt, für die Erstellung von Arbeitsblättern oder für Bastelideen in der Kita – die Prompts sind der Schlüssel zu fantastischen Ergebnissen. Dieser Artikel zeigt dir genau, wie du Befehle formulierst, die ChatGPT verstehen wird.


Was ist ein Prompt eigentlich?

Ein Prompt ist nichts anderes als eine Anfrage oder ein Befehl, den du an ChatGPT stellst. Aber hier ist der Knackpunkt: ChatGPT ist nicht hellseherisch. Das KI-Tool weiß nicht, was in deinem Kopf vorgeht. Es kann nur mit den Informationen arbeiten, die du es gibst.

Wenn du fragst: „Gib mir Unterrichtsideen für Mathe“ – wird dir ChatGPT etwas geben. Aber es wird wahrscheinlich nicht genau das sein, was du brauchst. Die Ideen könnten zu schwer oder zu leicht sein. Sie könnten zu theoretisch sein. Sie könnten an deiner Klassenstufe vorbeigehen.

Ein guter Prompt ist wie ein präzises Rezept: Je genauer du die Zutaten auflistest, desto besser wird das Ergebnis. Das ist Prompt Engineering.


Die 5 Grundprinzipien guter Prompts

1. Sei spezifisch und konkret

Das ist die Regel Nummer eins. Je vager du wirst, desto vager werden deine Ergebnisse.

Schlechter Prompt: „Schreib mir einen Text über Digitalisierung“

Besserer Prompt: „Schreib einen Text für Schüler der 9. Klasse über die Auswirkungen der Digitalisierung auf den Arbeitsmarkt. Der Text sollte 300 Wörter lang sein und zwei konkrete Jobbeispiele enthalten.“

Siehst du den Unterschied? Im zweiten Beispiel weißt du genau, was du willst – und ChatGPT auch.

Praxis-Tipp für Lehrer: Stelle dir vor, du müsstest einen anderen Lehrer anrufen und deine Anfrage erklären. Wenn du das in 2-3 Sätzen machen kannst, ist dein Prompt gut. Wenn du viel erklären musst, ist er zu vage.

Praxis-Tipp für Erzieher: Wenn du Bastelideen für Vorschulkinder brauchst, sag nicht „Basteln mit Papier“. Sag: „Basteln mit Papier für 4-jährige Kinder, die Feinmotorik trainieren sollen, Dauer max. 20 Minuten, Material sollte im Kindergarten vorhanden sein.“

2. Gib Kontext und Hintergrund

ChatGPT arbeitet besser, wenn es versteht, wer du bist und worum es geht.

Beispiel-Prompt mit Kontext:

„Ich bin Kunstlehrer in einer 6. Klasse Gymnasium. Meine Schüler haben gerade das Impressionismus-Kapitel in der Kunstgeschichte abgeschlossen. Ich möchte eine praktische Unterrichtsstunde entwerfen, in der die Schüler ein Kunstprojekt mit impressionistischen Elementen durchführen. Kannst du mir 3 konkrete Projektideen geben, die:

  • Mit Schulmaterialien machbar sind
  • Zwischen 60-90 Minuten dauern
  • Die Hauptmerkmale des Impressionismus zeigen
  • Für unterschiedliche künstlerische Fähigkeiten geeignet sind“

Der Kontext hilft ChatGPT enorm. Das Modell versteht jetzt: Du brauchst nicht irgendwelche Ideen – du brauchst unterrichtspraktische, zeitlich machbare Ideen für eine spezifische Altersgruppe.

3. Definiere das Format der Antwort

Viele Menschen vergessen diesen Punkt. Sie erwarten, dass ChatGPT weiß, in welchem Format die Antwort sein sollte. Das ist falsch.

Sag ChatGPT, wie die Antwort aussehen soll:

  • Als Liste
  • Als Tabelle
  • Als Schritt-für-Schritt-Anleitung
  • Als Dialog
  • Als Stichpunkte
  • Als Fließtext

Beispiel: „Erstelle eine Wochenplanung für eine Vorschulgruppe mit 15 Kindern. Format: Eine Tabelle mit Spalten für Tag, Uhrzeit, Aktivität, Material und Lernziel.“

Mit dieser Information wird ChatGPT dir sofort eine brauchbare Tabelle liefern – statt dir einen langen Text zu geben, den du mühsam umformatieren musst.

4. Setze Einschränkungen und Parameter

Ohne Grenzen wird ChatGPT zu großzügig. Mit Grenzen wird es präzise.

Gute Parameter sind:

  • Länge: „max. 300 Wörter“, „etwa 2.000 Zeichen“
  • Schwierigkeitsstufe: „einfach erklärt“, „für Anfänger verständlich“
  • Zielgruppe: „für 8-jährige“, „für angehende Lehrer“
  • Ton: „humorvoll“, „formal“, „verständlich“
  • Anzahl: „3 Beispiele“, „5 Ideen“, „10 Fragen“

Beispiel-Prompt mit Parametern:

„Erstelle 5 Multiple-Choice-Fragen zum Thema ‚Fotosynthese‘ für die 7. Klasse Hauptschule. Jede Frage soll:

  • Exakt 150-200 Wörter Fragetext haben
  • 4 Antwortoptionen (A, B, C, D) haben
  • Eine klare richtige Antwort haben
  • Häufige Schülermiskonzepte als Distraktoren enthalten
  • Mit praktischen Beispielen aus dem Alltag arbeiten“

Merke: Grenzen machen Prompts besser, nicht schlechter.

5. Gib Beispiele (Few-Shot Prompting)

Das ist eine fortgeschrittene Technik, die unglaublich wirksam ist: Zeige ChatGPT ein Beispiel von dem, was du willst.

Beispiel für Lehrer (Aufgabenerstellung):

„Schreib 3 ähnliche Mathe-Aufgaben wie die folgende:

Beispiel-Aufgabe: ‚Ein Rechteck hat eine Länge von 8 cm und eine Breite von 5 cm. Berechne den Umfang und die Fläche.‘

Neue Aufgaben sollten:

  • Ähnlicher Schwierigkeitsgrad
  • Andere Zahlen verwenden
  • Aber die gleiche Struktur haben“

Wenn du ein Beispiel gibst, versteht ChatGPT genau, was du meinst. Das ist deutlich besser, als nur eine abstrakte Beschreibung zu geben.


Die perfekte Prompt-Struktur (Template)

Nicht alle Prompts müssen lang sein. Aber sie sollten strukturiert sein. Hier ist eine einfache Struktur, die funktioniert : (Teste auch gern unseren Bastelideegenerator )

textROLLE/KONTEXT:
[Wer bin ich? Was ist meine Situation?]

AUFGABE:
[Was genau soll ChatGPT machen?]

DETAILS:
[Zielgruppe, Kontext, spezifische Anforderungen]

FORMAT:
[Wie sollte die Antwort aussehen?]

BEISPIEL (optional):
[Ein konkretes Beispiel von dem, was ich möchte]

CONSTRAINTS:
[Einschränkungen, Länge, Ton, etc.]

Praktisches Beispiel für Erzieher:

textROLLE: Ich bin Erzieherin in einer Kita mit Kindern im Alter von 3-4 Jahren.

AUFGABE: Erstelle Bastelideen für eine Regentags-Aktivität.

DETAILS: 
- Die Kinder sollen Feinmotorik trainieren
- Verwendetes Material sollte im Kindergarten vorhanden sein
- Aktivität sollte 20-30 Minuten dauern
- Die Kinder sollten viel selbst machen (nicht nur zugucken)

FORMAT: 3 Ideen als nummerierte Liste mit Titel, Material, Schritte und Lernziel

CONSTRAINTS: 
- Keine gefährlichen Materialien
- Max. 10 Minuten Vorbereitung
- Sicherheit ist wichtig

Häufige Fehler beim Prompt Engineering

Fehler 1: Zu höflich sein

Du darfst direkt mit ChatGPT sprechen. Du schuldest der KI nichts. „Bitte könntest du vielleicht…“ ist nicht nötig.

Besser: „Erstelle eine Checkliste für…“

Direkte Befehle funktionieren besser als Bitten.

Fehler 2: Zu viel auf einmal

Wenn du 10 Fragen in einem Prompt stellst, wird die Antwort chaotisch. Lieber mehrere focused Prompts hintereinander.

Falsch: „Gib mir Unterrichtsideen, Arbeitsblätter, Bewertungskriterien und ein Quiz zum Thema…“

Besser: Erst Prompt für Unterrichtsideen, dann separater Prompt für Arbeitsblätter, etc.

Fehler 3: Sich auf KI-Grenzen verlassen

ChatGPT hat Grenzen. Es kann Fehler machen. Es kann halluzinieren. Überprüfe die Ergebnisse kritisch.

Wenn ChatGPT dir sagt: „Die französische Hauptstadt ist Berlin“ – glaub’s nicht einfach. Lerne, wie du KI kritisch nutzt.

Fehler 4: Keine Iteration

Ein Prompt ist oft nicht sofort perfekt. Verfeinere ihn. Wenn du sagst: „Das ist nicht ganz richtig, mach es so…“ – wird die nächste Antwort besser.


Praktische Prompts für deinen Alltag

Für Lehrer

Unterrichtsplan-Prompt:
„Ich bin Deutschlehrer in der 10. Klasse. Meine Schüler sollen Kurzgeschichten analysieren. Erstelle einen 90-Minuten-Stundenplan mit:

  1. Einstieg (5 Min)
  2. Erarbeitungsphase (30 Min)
  3. Vertiefung (40 Min)
  4. Abschluss (15 Min)

Nutze Gruppenarbeit und digitale Elemente. Format: Tabelle mit Zeitangabe, Aktivität und Material.“

Arbeitsblatt-Prompt:
„Ich brauche ein differenziertes Arbeitsblatt zu Quadraten und Rechtecken für die 4. Klasse. Schwierigkeitsstufen: Grundanforderung (5 Aufgaben), Erweitert (7 Aufgaben), Herausforderung (8 Aufgaben). Format: PDF-freundlich (DIN A4), mit Lösungen.“

Für Erzieher

Wochenplan-Prompt:
„Erstelle einen Wochenplan für eine Vorschulgruppe (4-6 Jahre). Thema: ‚Tiere im Wald‘. Jeder Tag sollte eine Aktivität haben (Basteln, Bewegung, Rollenspiel, Geschichte, Experiment). Format: Tabelle mit Datum, Zeit, Aktivität, Material, Lernziel.“

Aktivitäts-Prompt:
„Ich brauche 3 Bastelideen zum Thema ‚Frühling‘ für 3-4-jährige Kinder. Kriterien:

  • Material aus unserem Kindergarten
  • Dauer: 15-20 Minuten
  • Feinmotorische und kreative Entwicklung
  • Sicherheit ist wichtig
    Format: Nummeriert mit Titel, Material-Liste, Schritt-für-Schritt-Anleitung.“

Advanced Tricks: Prompt Hacks für bessere Ergebnisse

Trick 1: Rollen spielen

Sag ChatGPT, dass es eine Rolle annehmen soll:

„Stelle dich vor, du bist ein erfahrener Grundschullehrer mit 20 Jahren Erfahrung. Du sollst…“

Das führt oft zu besseren, praktischeren Antworten.

Trick 2: Temperature nutzen

Das ist etwas Technisches, aber hilfreich: Wenn du bei den Erweiterten Optionen (falls verfügbar) eine niedrigere „Temperature“ einstellst, werden die Antworten präziser und weniger kreativ. Für Arbeitsblätter und Tests = niedriger. Für Kreativität = höher.

Trick 3: „Chain of Thought“ Prompting

Sag ChatGPT, es sollte Schritt für Schritt denken:

„Denke zuerst über die Zielgruppe nach, dann über mögliche Aktivitäten, dann über Sicherheit. Schreib deine Gedanken auf und gib dann 3 Bastelideen.“

Das führt zu durchdachteren Ergebnissen.

Trick 4: Negative Beispiele

Nicht nur positive Beispiele geben, sondern auch sagen, was du NICHT willst:

„Ich möchte Unterrichtsideen, ABER NICHT:

  • Zu theoretisch
  • Zu langweilig
  • Mit Bildschirmen
  • Zu gefährlich“

Häufig gestellte Fragen zum Prompt Engineering

F: Wie lange sollte ein Prompt sein?
A: Es kommt darauf an. Ein Prompt kann eine Zeile sein („Gib mir 5 Mathe-Aufgaben zur Division“). Meist funktionieren aber 2-5 Sätze besser, weil du mehr Kontext geben kannst. Länger als 500 Wörter ist selten nötig.

F: Ist es wichtig, wie ich ChatGPT anspreche?
A: Nicht sehr. Du kannst höflich oder direkt sein – ChatGPT versteht beides. Wichtiger ist, dass du klar und strukturiert bist.

F: Was mache ich, wenn ChatGPT etwas Falsches antwortet?
A: Sag es! „Das stimmt nicht. [Korrektur]. Versuch es noch mal.“ ChatGPT lernt dann in diesem Conversation-Fenster dazu.

F: Kann ich den gleichen Prompt für ChatGPT und Claude verwenden?
A: Meistens ja. Aber die Modelle verhalten sich leicht unterschiedlich. Wenn du ChatGPT vs. Claude vergleichst, wirst du kleine Unterschiede bemerken. Dein Prompt sollte aber bei beiden funktionieren.

F: Speichert ChatGPT meine Prompts?
A: Ja und nein. Wenn du Premium nutzt, können deine Prompts zu KI-Trainings-Daten werden (abhängig von deinen Einstellungen). Schau mal in die Datenschutzeinstellungen, wenn das wichtig ist.

F: Wie unterscheidet sich Prompt Engineering für Bilder (Midjourney, DALL-E) von Text-Prompts?
A: Die Grundprinzipien sind gleich (spezifisch, detailliert, Kontext). Aber Bild-KI braucht mehr Details zu Ästhetik: „Impressionistisch“, „fotorealistisch“, „bunter Zeichenstil“, „Farben: Blau und Orange“. Lies mehr über Bild-KI für Unterrichtsmaterialien.

F: Ist Prompt Engineering eine Fähigkeit, die bald niemand mehr braucht?
A: Nein. Im Gegenteil: Je besser KI-Modelle werden, desto wichtiger wird es, gute Prompts zu schreiben. Es ist wie mit Google-Suchen: Die Fähigkeit, die richtigen Fragen zu stellen, wird immer wertvoll sein.

F: Kann ich meine Prompts wiederverwendet?
A: Ja! Speichere deine erfolgreichen Prompts ab. Du kannst sie jede Woche verwenden. Ändere nur die Klassenstufe, das Thema oder die Details. So sparst du noch mehr Zeit.

F: Sollte ich Prompts mit anderen Lehrern/Erziehern teilen?
A: Gerne! Eine Prompt-Sammlung für deine Schule oder Kita zu erstellen, könnte sogar ein Geldverdienst-Projekt sein. Schau mal, wie du digitale Produkte verkaufen kannst.


Die wichtigsten Takeaways

  1. Ein guter Prompt ist wie ein Rezept: Je präziser deine Zutaten, desto besser das Ergebnis.
  2. Spezifität schlägt Höflichkeit: Direkter und detailliert ist besser als vage und höflich.
  3. Kontext ist König: Je mehr ChatGPT über deine Situation weiß, desto besser die Antwort.
  4. Iteriere: Der erste Prompt ist selten perfekt. Verfeinere ihn.
  5. Überprüfe kritisch: ChatGPT kann Fehler machen. Vertrau nicht blind – überprüfe die Ergebnisse.
  6. Speichere erfolgreiche Prompts: Das ist deine Prompt-Bibliothek für die Zukunft.
  7. Format ist wichtig: Sag ChatGPT, wie die Antwort aussehen soll – als Tabelle, Liste, Fließtext, etc.

Nächste Schritte

Du kennst jetzt die Grundlagen von Prompt Engineering. Der beste Weg zu lernen ist: Probieren.

Öffne ChatGPT jetzt und versuche:

  1. Einen Prompt zu schreiben, den du sonst spontan gestellt hättest
  2. Nutze die Struktur aus diesem Artikel
  3. Vergleiche das Ergebnis mit deinen alten Versuchen
  4. Du wirst sofort sehen, wie viel besser die Antwort ist

Das ist kein Zufall. Das ist Prompt Engineering.

Wenn du noch tiefer einsteigen möchtest: Schau dir an, wie du KI-Tools für Schulen kombinierst oder lerne andere ChatGPT-Anwendungen für deinen Unterricht.

Viel Erfolg beim Prompten! 🚀

Transparenz: Manche Links sind Affiliate-Links. Für Dich entstehen keine Kosten, aber wir erhalten eine kleine Provision zur Unterstützung unserer Arbeit.

Entspannter durch den Bildungsalltag – jetzt Dein GRATIS Stressfrei-E-Book sichern

Du kannst Dich jederzeit vom Newsletter abmelden. Erfahre mehr in unserer Datenschutzerklärung.