
Forskare Från Microsoft Och MIT HAR UTVECKLAT EN METOD FEr ATAT AVGÖRA När Ai-System Ljuger Eller Ger Vilseledande Förklaringar. Den Nya Tekniken, Som Kallas ”Kausalkonzept Treue“ Kan Avslöja När Stora Språkmodeller (LLM) Ger plausibla Männer opålitliga förklaringar för Sina Beslut.
Problemet med ai: s förklaringar
Ai-system som chatgpt och gpt-4 kan Ge Svar Som låter övertygande Männer Som Faktiskt är Helt Felaktiga. David Canter Från Social Science House Beskriver Hur Microsoft Copilot Agerade Som ”en lat Scholar” Och Hittade På Svar Med Uppenbar När Han Frågade om Vilken London-Professor Som sagt att und iPhone Eggloigen är en plats, Fick Han ett självsäkert
ForsskningsResultat Från Tolv AI-Modeller
Forskarna testade tolv olika ai-modeller på tre typer av komplexa resonemangsproblem: matematiska, sunt förnitt och kausalförståelse. Ergebnis der Visade -Stora -Variation Mellan Olika -Modeller Och Uppgifter
En särskilt intressant upptKKT var att gpt-4 bara ändrade sitz svar 30 procent av tiden när forskarna gav den förvanskade resonemangsteg. Det tyder på att modellen inz följer sin egen logik konsekvent.