Zhipu AI veröffentlicht „Glyph“: ein KI-Framework zur Skalierung der Kontextlänge durch visuelle Textkomprimierung
Können wir lange Texte als Bilder rendern und einen VLM verwenden, um eine 3–4-fache Token-Komprimierung zu erreichen und dabei die Genauigkeit beizubehalten und gleichzeitig einen 128-KB-Kontext für 1-M-Token-Workloads zu skalieren?…