Problem
Der von OpenAI entwickelte Chatbot, ChatGPT, ist gerade in aller Munde. Viele nutzen ihn bereits, um sich bei ihrer täglichen Arbeit Unterstützung zu holen. Doch benutzen wir den Bot auch richtig?
Lösung
Das, was wir ChatGPT fragen, sind sogenannte Prompts. Während wir bei Google und Co. kurze Wortgruppen verwenden sollen, kann ich mich mit ChatGPT wie mit einem Menschen unterhalten, was auch zu besseren Ergebnissen führen kann.
TLDR: Mehr Inhalt im Prompt → mehr Kontext fürs Modell → bessere Antworten
Beispiel
Google vs ChatGPT (Beispiel zur Veranschaulichung — Vorsicht bei Selbstdiagnosen mittels Google oder ChatGPT!)
Frage/Prompt
Google/ChatGPT: Steifer Nacken, Schwindel im Liegen, keine Schmerzen
Bewertung des Ergebnisses
Google: Links zu Seiten, die manche der Worte enthalten. Zusammenhanglos. Weitere Fragen werden vorgestellt.
ChatGPT: Raten des Kontextes. Relativ ok, da schon halbwegs spezifisch, aber nicht natürlich.
ChatGPT: Du bist Mediziner und kennst dich mit der Anatomie des Menschen sehr gut aus und hilfst mir herauszufinden, welche Krankheit meine Symptome haben. Seit ein paar Tagen habe ich einen steifen Nacken wenn ich nach links schaue. Wenn ich mich hinlege, dann bekomme ich auch noch einen Schwindel, der jedoch nur passiert, wenn ich mich auf die Seite drehe. Schmerzen habe ich keine. Was kann das sein?
ChatGPT: Besserer Prompt, hier sind alle wichtigen Informationen vorhanden. Wir gehen hier mehr ins Detail, so dass ChatGPT mit mehr Kontext arbeiten kann.
Das bestmögliche Ergebnis hole ich aus ChatGPT also heraus, indem ich genau ausformuliere, was ich eigentlich möchte. Die klare Kommunikation ist sowohl im realen Leben mit meinen Mitmenschen als auch mit solchen Technologien wie ChatGPT extrem wichtig. Finde ich keine klaren Worte, ist das Ergebnis nicht sehr hilfreich. Je mehr Informationen und Kontext mein Text enthält, desto mehr kann ChatGPT damit anfangen.
Schlüsselworte einfach willkürlich aneinander zu reihen, führt zwar teilweise auch schon zu einer Antwort, aber ChatGPT ist ein Modell für natürliche Sprache. Also sollte ich mich gegenüber ChatGPT auch so verhalten, als wäre es ein Mensch, um bessere Ergebnisse zu erzielen. Insbesondere bei komplexeren Themen, z.B. Coding-Anfragen, kann ich bessere Resultate erwarten, wenn ich sie so konkret wie möglich beschreibe.
Frage/Prompt
ChatGPT: Du bist Sportwissenschaftler und hilfst mir dabei herauszufinden, was passiert, wenn Elon Musk gegen Mark Zuckerberg in einem MMA Kampf antritt. Wer von beiden würde gewinnen auf Basis der physischen Daten, die Du von beiden Kämpfern kennst?
Bewertung des Ergebnisses
ChatGPT: Besserer Prompt, da hier der Kontext mitgeliefert wurde. Es geht also um Sport und noch konkreter um einen MMA Kampf. Dennoch kein Ergebnis und gleichzeitig eine detaillierte Beschreibung, warum mir ChatGPT kein Ergebnis liefern kann, da ein Kampf von vielen Faktoren abhängt, ChatGPT nicht in die Zukunft schauen kann und ein kurzer Anriss, was MMA ist.
Google/ChatGPT: Elon Musk gegen Mark Zuckerberg wer gewinnt?
Google: Links zu Newsseiten, die das aktuelle Geschehen wiedergeben. Keine Aussage darüber, wer gewinnen könnte.
ChatGPT: Schlechtes Ergebnis. Worum geht es denn? Um ein Kochduell? Rap Battle? Autorennen? Hier fehlt der Kontext und mehr Infos.