Was ist Temperature?
Temperature ist ein Parameter, der steuert, wie "überraschend" die Antworten eines LLMs sind. Bei jedem Token wählt das Modell aus Tausenden Möglichkeiten - Temperature beeinflusst diese Auswahl.
Die Skala:
0.0: Immer das wahrscheinlichste Token (deterministisch)
0.7: Ausgewogen - Standard für die meisten Anwendungen
1.0: Kreativ und variabel
2.0+: Sehr experimentell, manchmal chaotisch
Niedrige Temperature = vorhersehbar, präzise, konsistent.
Hohe Temperature = kreativ, überraschend, variabel.