Stellen Sie sich eine Kaffee -Firma vor, die versucht, seine Lieferkette zu optimieren. Die Firma bezieht Bohnen von drei Lieferanten, brät sie in zwei Einrichtungen entweder in einen dunklen oder in leichten Kaffee und versendet dann den gerösteten Kaffee an drei Einzelhandelsstandorte. Die Lieferanten haben unterschiedliche Kapazitäten, und die Röstkosten und die Versandkosten variieren von Ort zu Ort.

Das Unternehmen versucht, die Kosten zu minimieren und gleichzeitig einen Anstieg der Nachfrage um 23 Prozent zu erreichen.

Wäre es für das Unternehmen nicht einfacher, Chatgpt nur zu bitten, einen optimalen Plan zu entwickeln? Tatsächlich funktionieren für alle ihre unglaublichen Fähigkeiten Großspracher -Modelle (LLMs) oft schlecht, wenn sie die Aufgabe haben, solche komplizierten Planungsprobleme selbst direkt zu lösen.

Anstatt zu versuchen, das Modell zu ändern, um einen LLM zu einem besseren Planer zu machen, verfolgten die MIT -Forscher einen anderen Ansatz. Sie stellten einen Framework ein, in dem ein LLM geführt wird, um das Drawback wie ein Mensch zu brechen, und dann automatisch mit einem leistungsstarken Softwaretool zu lösen.

Ein Benutzer muss nur das Drawback in der natürlichen Sprache beschreiben-es sind keine aufgabenspezifischen Beispiele erforderlich, um das LLM zu trainieren oder fordern. Das Modell codiert die Textaufforderung eines Benutzers in ein Format, das durch einen Optimierungslöser enträtselt werden kann, um extrem schwierige Planungsherausforderungen effizient zu knacken.

Während des Formulierungsprozesses überprüft das LLM seine Arbeit in mehreren Zwischenschritten, um sicherzustellen, dass der Plan korrekt für den Löser beschrieben wird. Wenn es einen Fehler entdeckt, anstatt aufzugeben, versucht der LLM, den kaputten Teil der Formulierung zu reparieren.

Als die Forscher ihren Rahmen auf neun komplexe Herausforderungen testeten, z.

Das vielseitige Rahmen könnte auf eine Reihe von mehrstufigen Planungsaufgaben angewendet werden, wie z.

„Unsere Forschung führt einen Rahmen vor, der im Wesentlichen als intelligenter Assistent für Planungsprobleme fungiert. Sie kann den besten Plan ermitteln, der alle Bedürfnisse erfüllt, auch wenn die Regeln kompliziert oder ungewöhnlich sind“ Papier über diese Forschung.

Sie wird von Yang Zhang, einem Forschungswissenschaftler am MIT-IBM Watson AI Lab, auf der Zeitung begleitet. und Senior Autor Chuchu Fan, Affiliate Professor für Luftfahrt- und Astronautik- und Lids -Schulleiterin Ermittler. Die Forschung wird auf der Internationalen Konferenz über Lernrepräsentationen vorgestellt.

Optimierung 101

Die Fan -Gruppe entwickelt Algorithmen, die automatisch sogenannte Probleme mit kombinatorischer Optimierung lösen. Diese umfangreichen Probleme haben viele miteinander verbundene Entscheidungsvariablen, von denen jeweils mehrere Optionen mit mehreren Milliarden potenzielle Entscheidungen bilden.

Menschen lösen solche Probleme, indem sie sie auf einige Optionen einschränken und dann feststellen, welche zum besten Gesamtplan führt. Die algorithmischen Solvers der Forscher wenden die gleichen Prinzipien auf Optimierungsprobleme an, die für einen Menschen viel zu komplex sind, um zu knacken.

Die Löser, die sie entwickeln, haben jedoch tendenziell steile Lernkurven und werden in der Regel nur von Experten verwendet.

„Wir dachten, dass LLMs es nicht erlauben könnten, diese Lösungsalgorithmen zu verwenden. In unserem Labor nehmen wir ein Area -Expertenproblem und formalisieren es zu einem Drawback, das unser Solver lösen kann. Können wir einen LLM beibringen, um dasselbe zu tun?“ Fan sagt.

Unter Verwendung des Rahmens, den die Forscher entwickelt haben, werden LLM-basierte formalisierte Programmierung (LLMFP) bezeichnet, und eine Individual liefert eine natürliche Sprachbeschreibung des Issues, des Hintergrundinformationen zur Aufgabe und einer Abfrage, die ihr Ziel beschreibt.

Anschließend fordert LLMFP einen LLM auf, über das Drawback zu begründen und die Entscheidungsvariablen und wichtigen Einschränkungen zu bestimmen, die die optimale Lösung beeinflussen.

LLMFP fordert die LLM auf, die Anforderungen jeder Variablen zu detaillieren, bevor die Informationen in eine mathematische Formulierung eines Optimierungsproblems codiert werden. Es schreibt Code, der das Drawback codiert und den beigefügten Optimierungslöser aufruft, der zu einer idealen Lösung kommt.

„Es ist ähnlich wie bei der Unterricht von Studenten über Optimierungsprobleme am MIT. Wir unterrichten ihnen nicht nur einen Area. Wir bringen ihnen die Methodik bei“, fügt Fan hinzu.

Solange die Eingänge zum Löser korrekt sind, gibt es die richtige Antwort. Alle Fehler in der Lösung stammen aus Fehlern im Formulierungsprozess.

Um sicherzustellen, dass ein Arbeitsplan gefunden wurde, analysiert LLMFP die Lösung und verändert alle falschen Schritte in der Problemformulierung. Sobald der Plan diese Selbsteinschätzung bestanden hat, wird die Lösung dem Benutzer in der natürlichen Sprache beschrieben.

Perfektionieren des Plans

Mit diesem Selbstbewertungsmodul kann das LLM auch alle impliziten Einschränkungen hinzufügen, die es beim ersten Mal verpasst hat, sagt Hao.

Wenn beispielsweise das Rahmen eine Lieferkette optimiert, um die Kosten für einen Coffeeshop zu minimieren, weiß ein Mensch, dass das Coffeeshop keine unfavourable Anzahl von gerösteten Bohnen versenden kann, aber ein LLM kann dies möglicherweise nicht erkennen.

Der Schritt zur Selbsteinschätzung würde diesen Fehler kennzeichnen und das Modell zur Behebung fordern.

„Außerdem kann sich ein LLM an die Vorlieben des Benutzers anpassen. Wenn das Modell erkennt, dass ein bestimmter Benutzer nicht die Zeit oder das Funds seiner Reisepläne ändern kann, kann dies vorschlagen, Dinge zu ändern, die den Anforderungen des Benutzers entsprechen“, sagt Fan.

In einer Reihe von Assessments erreichte ihr Rahmen eine durchschnittliche Erfolgsquote zwischen 83 und 87 Prozent bei neun verschiedenen Planungsproblemen, die mehrere LLMs unter Verwendung von LLMs haben. Während einige Basismodelle bei bestimmten Problemen besser waren, erreichte LLMFP eine Gesamterfolgsrate von etwa doppelt so hoch wie die Basistechniken.

Im Gegensatz zu diesen anderen Ansätzen erfordert LLMFP keine domänenspezifischen Beispiele für das Coaching. Es kann die optimale Lösung für ein Planungsproblem direkt außerhalb der Field finden.

Darüber hinaus kann der Benutzer LLMFP für unterschiedliche Optimierungslöser anpassen, indem sie die Eingabeaufforderungen an die LLM anpassen.

„Mit LLMs haben wir die Möglichkeit, eine Schnittstelle zu erstellen, die es Menschen ermöglicht, Instruments aus anderen Domänen zu verwenden, um Probleme auf eine Weise zu lösen, über die sie möglicherweise vorher nicht nachgedacht haben“, sagt Fan.

In Zukunft möchten die Forscher LLMFP ermöglichen, Bilder als Eingabe aufzunehmen, um die Beschreibungen eines Planungsproblems zu ergänzen. Dies würde dem Framework helfen, Aufgaben zu lösen, die mit natürlicher Sprache besonders schwer zu beschreiben sind.

Diese Arbeit wurde teilweise vom Büro für Marineforschung und dem MIT-IBM Watson AI Lab finanziert.

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert