Eine bessere Methode zur Identifizierung übersicherer großer Sprachmodelle | MIT-Nachrichten
Große Sprachmodelle (LLMs) können glaubwürdige, aber ungenaue Antworten generieren. Daher haben Forscher Methoden zur Unsicherheitsquantifizierung entwickelt, um die Zuverlässigkeit von Vorhersagen zu überprüfen. Eine beliebte Methode besteht darin, dieselbe Eingabeaufforderung…