Eine neue KI-Studie von Google schlägt ein Deep-Considering-Verhältnis vor, um die LLM-Genauigkeit zu verbessern und gleichzeitig die gesamten Inferenzkosten um die Hälfte zu senken
In den letzten Jahren folgte die KI-Welt einer einfachen Regel: Wenn Sie möchten, dass ein Giant Language Mannequin (LLM) ein schwierigeres Drawback löst, erstellen Sie es Gedankenkette (CoT) länger. Aber…