RLCR: Wenn die KI endlich zugibt, dass sie etwas nicht weiß
Forscher der MIT haben eine Technik entwickelt, mit der KI zugeben soll, wenn sie die Antwort auf eine Frage nicht weiß. Sprachmodelle haben ein Problem mit Selbstüberschätzung. Sie antworten auf jede Frage mit derselben unerschütterlichen Souveränität, und das unabhängig davon, ob sie die Antwort wirklich kennen oder im Grunde nur raten. Forscherinnen und Forscher am
Zum Inhalt springen




