hat den Grundstein für eine strukturiertere Möglichkeit gelegt, interaktive, zustandsbehaftete KI-gesteuerte Anwendungen zu erstellen. Eines der interessanteren Ergebnisse dieser Bemühungen conflict die Veröffentlichung ihres neuen Interaktions-API vor ein paar Wochen.
Da große Sprachmodelle (LLMs) kommen und gehen, kommt es oft vor, dass eine von einem LLM-Anbieter entwickelte API etwas veraltet sein kann. Schließlich kann es für einen API-Designer schwierig sein, alle verschiedenen Änderungen und Optimierungen vorherzusehen, die möglicherweise auf das System angewendet werden, für das die API entwickelt wurde. Dies gilt in zweifacher Hinsicht für die KI, wo das Tempo des Wandels anders ist als alles, was es zuvor in der IT-Welt gegeben hat.
Das haben wir zum Beispiel schon bei OpenAI gesehen. Ihre ursprüngliche API für ihre Modelle hieß Abschlüsse API. Als ihre Modelle weiterentwickelten, mussten sie ein Improve durchführen und eine neue API namens veröffentlichen Antworten.
Einen etwas anderen Weg geht Google bei der Interactions API. Es ist kein vollständiger Ersatz für die älteren generierenInhalt API, sondern eher eine Erweiterung davon.
Wie Google in seiner eigenen Dokumentation sagt …
„Die Interaktions-API (Beta) ist eine einheitliche Schnittstelle für die Interaktion mit Gemini-Modellen und -Agenten. Es vereinfacht die Statusverwaltung, die Software-Orchestrierung und lang andauernde Aufgaben.“
Der Relaxation dieses Artikels untersucht die architektonische Notwendigkeit der Interactions API. Wir beginnen einfach damit, zu zeigen, wie die Interactions API alles kann, was ihr Vorgänger konnte, und enden dann damit, wie sie zustandsbehaftete Vorgänge, die explizite Integration der Deep Analysis-Agentenfunktionen mit hoher Latenz von Google und die Handhabung lang laufender Aufgaben ermöglicht. Wir werden über ein „Hallo Welt“-Beispiel hinausgehen und Systeme entwickeln, die tiefes Nachdenken und die Orchestrierung asynchroner Forschung erfordern.
Die architektonische Lücke: Warum „Chat“ nicht ausreicht
Um zu verstehen, warum die Interactions API existiert, müssen wir analysieren, warum die Commonplace-LLM-Chat-Schleife unzureichend ist.
In einer Commonplace-Chat-Anwendung ist „Standing“ implizit. Es existiert nur als Schiebefenster des Token-Verlaufs. Wenn sich ein Benutzer in Schritt 3 eines Onboarding-Assistenten befindet und eine Frage stellt, die nicht zum Thema gehört, halluziniert das Modell möglicherweise einen neuen Pfad, wodurch der Assistent effektiv unterbrochen wird. Der Entwickler hat keine programmatische Garantie dafür, dass der Benutzer dort ist, wo er sein soll.
Für die Entwicklung moderner KI-Systeme reicht dies nicht aus. Um dem entgegenzuwirken, bietet die neue API von Google Möglichkeiten, in nachfolgenden LLM-Interaktionen auf den vorherigen Kontext zu verweisen. Wir werden später ein Beispiel dafür sehen.
Das Deep-Analysis-Downside
Die Deep Analysis-Funktion von Google (unterstützt von Gemini) ist aggressiv. Es ruft nicht nur Informationen ab; Es formuliert einen Plan, führt Dutzende Suchvorgänge durch, liest Hunderte von Seiten und fasst eine Antwort zusammen. Dieser Prozess ist asynchron und weist eine hohe Latenz auf.
Sie können ein Commonplace-Chat-Modell nicht einfach dazu veranlassen, innerhalb einer synchronen Schleife „tiefgreifende Recherchen durchzuführen“, ohne Zeitüberschreitungen oder Kontextfensterüberläufe zu riskieren. Mit der Interactions-API können Sie diesen flüchtigen Agentenprozess in einen stabilen, verwalteten Prozess kapseln SchrittPausieren des Interaktionsstatus. Gleichzeitig erfolgt die Schwerarbeit erst dann, wenn strukturierte Daten zurückgegeben werden. Wenn die Recherche eines Deep-Analysis-Agenten jedoch viel Zeit in Anspruch nimmt, ist es das Letzte, was Sie tun möchten, herumzusitzen und Däumchen zu drehen und darauf zu warten, dass die Recherche abgeschlossen ist. Mit der Interaktions-API können Sie regelmäßig Hintergrundrecherchen durchführen und die Ergebnisse abfragen, sodass Sie benachrichtigt werden, sobald der Agent seine Ergebnisse zurückgibt.
Einrichten einer Entwicklungsumgebung
Sehen wir uns die Interactions API aus der Nähe an, indem wir uns einige Codierungsbeispiele für ihre Verwendung ansehen. Wie bei jedem Entwicklungsprojekt ist es am besten, Ihre Umgebung zu isolieren, additionally machen wir das jetzt. Ich verwende Home windows und das UV Verwenden Sie dazu den Paketmanager, aber verwenden Sie das Software, mit dem Sie am besten vertraut sind. Mein Code wurde in einem Jupyter-Pocket book ausgeführt.
uv init interactions_demo --python 3.12
cd interactions_demo
uv add google-genai jupyter
# To run the pocket book, sort this in
uv run jupyter pocket book
Um meinen Beispielcode auszuführen, benötigen Sie außerdem einen Google API-Schlüssel. Wenn Sie keins haben, gehen Sie zu Googles AI Studio Web site und melden Sie sich an. Unten hyperlinks auf dem Bildschirm sehen Sie ein Holen Sie sich den API-Schlüssel Hyperlink. Klicken Sie darauf und folgen Sie den Anweisungen, um Ihren Schlüssel zu erhalten. Sobald Sie einen Schlüssel haben, erstellen Sie eine Umgebungsvariable mit dem Namen GOOGLE_API_KEY auf Ihrem System und setzen Sie seinen Wert auf Ihren API-Schlüssel.
Beispiel 1: Ein Good day World-Äquivalent
from google import genai
consumer = genai.Shopper()
interplay = consumer.interactions.create(
mannequin="gemini-2.5-flash",
enter="What's the capital of France"
)
print(interplay.outputs(-1).textual content)
#
# Output
#
The capital of France is **Paris**.
Beispiel 2: Verwendung von Nano Banana zum Generieren eines Bildes
Bevor wir die spezifischen Fähigkeiten der Zustandsverwaltung und tiefgreifenden Forschung untersuchen, die die neue Interactions API bietet, möchte ich zeigen, dass dies der Fall ist Auch ein universelles, multimodales Software. Dazu verwenden wir die API, um mit Nano Banana ein Bild für uns zu erstellen, das offiziell als Gemini 3 Professional Picture Preview bekannt ist.
import base64
import os
from google import genai
# 1. Make sure the listing exists
output_dir = r"c:temp"
if not os.path.exists(output_dir):
os.makedirs(output_dir)
print(f"Created listing: {output_dir}")
consumer = genai.Shopper()
print("Sending request...")
strive:
# 2. Right Syntax: Cross 'response_modalities' straight (not inside config)
interplay = consumer.interactions.create(
mannequin="gemini-3-pro-image-preview", # Guarantee you've got entry to this mannequin
enter="Generate a picture of a hippo sporting a top-hat using a uni-cycle.",
response_modalities=("IMAGE")
)
found_image = False
# 3. Iterate via outputs and PRINT all the things
for i, output in enumerate(interplay.outputs):
# Debug: Print the sort so we all know what we obtained
print(f"n--- Output {i+1} Sort: {output.sort} ---")
if output.sort == "textual content":
# If the mannequin refused or chatted again, it will print why
print(f"📝 Textual content Response: {output.textual content}")
elif output.sort == "picture":
print(f"Picture Response: Mime: {output.mime_type}")
# Assemble filename
file_path = os.path.be part of(output_dir, f"hippo_{i}.png")
# Save the picture
with open(file_path, "wb") as f:
# The SDK normally returns base64 bytes or string
if isinstance(output.knowledge, bytes):
f.write(output.knowledge)
else:
f.write(base64.b64decode(output.knowledge))
print(f"Saved to: {file_path}")
found_image = True
if not found_image:
print("nNo picture was returned. Test the 'Textual content Response' above for the explanation.")
besides Exception as e:
print(f"nError: {e}")
Das conflict meine Ausgabe.

Beispiel 3: Staatsverwaltung
Die zustandsbehaftete Verwaltung in der Interaktions-API basiert auf dem „Interaktion“ Ressource, die als Sitzungsdatensatz dient und den gesamten Verlauf einer Aufgabe enthält, von Benutzereingaben bis hin zu Werkzeugergebnissen.
Um eine Konversation fortzusetzen, die sich an den vorherigen Kontext erinnert, übergeben Sie eine ID einer früheren Interaktion an die previous_interaction_id Parameter einer neuen Anfrage.
Der Server verwendet diese ID, um automatisch den vollständigen Kontext der jeweiligen Sitzung abzurufen, mit der er verknüpft ist, sodass der Entwickler nicht den gesamten Chat-Verlauf erneut senden muss. Ein Nebeneffekt ist, dass das Caching auf diese Weise effektiver genutzt werden kann, was zu einer verbesserten Leistung und geringeren Token-Kosten führt.
Zustandsbehaftete Interaktionen erfordern, dass die Daten auf den Servern von Google gespeichert werden. Standardmäßig ist der Retailer-Parameter auf true gesetzt, wodurch diese Funktion aktiviert wird. Wenn ein Entwickler „retailer=false“ festlegt, kann er keine zustandsbehafteten Funktionen wie previous_interaction_id verwenden.
Der Stateful-Modus ermöglicht auch das Mischen verschiedener Modelle und Agenten in einem einzigen Thread. Sie könnten beispielsweise einen Deep Analysis-Agenten für die Datenerfassung verwenden und dann auf die ID dieser Interaktion verweisen, um die Ergebnisse in einem standardmäßigen (günstigeren) Gemini-Modell zusammenfassen zu lassen.
Hier ist ein kurzes Beispiel, bei dem wir eine einfache Aufgabe beginnen, indem wir dem Mannequin unseren Namen nennen und ihm einige einfache Fragen stellen. Wir zeichnen die Interaktions-ID auf, die die Sitzung erzeugt, und fragen das Modell zu einem späteren Zeitpunkt nach unserem Namen und der zweiten Frage, die wir gestellt haben.
from google import genai
consumer = genai.Shopper()
# 1. First flip
interaction1 = consumer.interactions.create(
mannequin="gemini-3-flash-preview",
enter="""
Hello,It is Tom right here, are you able to inform me the chemical title for water.
Additionally, which is the smallest recognised nation on this planet?
And the way tall in ft is Mt Everest
"""
)
print(f"Response: {interaction1.outputs(-1).textual content}")
print(f"ID: {interaction1.id}")
#
# Output
#
Response: Hello Tom! Listed below are the solutions to your questions:
* **Chemical title for water:** The commonest chemical title is **dihydrogen monoxide** ($H_2O$), although in formal chemistry circles, its systematic title is **oxidane**.
* **Smallest acknowledged nation:** **Vatican Metropolis**. It covers solely about 0.17 sq. miles (0.44 sq. kilometers) and is an unbiased city-state enclaved inside Rome, Italy.
* **Top of Mt. Everest:** In keeping with the newest official measurement (confirmed in 2020), Mt. Everest is **29,031.7 ft** (8,848.86 meters) tall.
ID: v1_ChdqamxlYVlQZ01jdmF4czBQbTlmSHlBOBIXampsZWFZUGdNY3ZheHMwUG05Zkh5QTg
Ein paar Stunden später …
from google import genai
consumer = genai.Shopper()
# 2. Second flip (passing previous_interaction_id)
interaction2 = consumer.interactions.create(
mannequin="gemini-3-flash-preview",
enter="Are you able to inform me my title and what was the second query I requested you",
previous_interaction_id='v1_ChdqamxlYVlQZ01jdmF4czBQbTlmSHlBOBIXampsZWFZUGdNY3ZheHMwUG05Zkh5QTg'
)
print(f"Mannequin: {interaction2.outputs(-1).textual content}")
#
# Output
#
Mannequin: Hello Tom!
Your title is **Tom**, and the second query you requested was:
**"Which is the smallest recognised nation on this planet?"**
(to which the reply is Vatican Metropolis).
Beispiel 4: Der asynchrone Deep Analysis Orchestrator
Nun zu etwas, das die alte API von Google nicht kann. Einer der Hauptvorteile der Interactions API besteht darin, dass Sie damit spezialisierte Agenten aufrufen können, z deep-research-pro-preview-12-2025, für komplexe Aufgaben.
In diesem Beispiel erstellen wir eine Aggressive-Intelligence-Engine. Der Benutzer gibt einen Geschäftskonkurrenten an und das System veranlasst einen Deep Analysis-Agenten, das Web zu durchsuchen, Jahresberichte zu lesen und eine SWOT-Analyse (Stärken, Schwächen, Chancen und Risiken) zu erstellen. Wir haben dies in zwei Teile geteilt. Erstens können wir unsere Forschungsanfrage mit Code wie diesem starten.
import time
import sys
from google import genai
def competitive_intelligence_engine():
consumer = genai.Shopper()
print("--- Deep Analysis Aggressive Intelligence Engine ---")
competitor_name = enter("Enter the title of the competitor to investigate (e.g., Nvidia, Coca-Cola): ")
# We craft a particular immediate to power the agent to search for particular doc varieties
immediate = f"""
Conduct a deep analysis investigation into '{competitor_name}'.
Your particular duties are:
1. Scour the net for the newest Annual Report (10-Ok) and newest Quarterly Earnings transcripts.
2. Seek for current information relating to product launches, strategic partnerships, and authorized challenges within the final 12 months.
3. Synthesize all findings into an in depth SWOT Evaluation (Strengths, Weaknesses, Alternatives, Threats).
Format the output as knowledgeable government abstract with the SWOT part clearly outlined in Markdown.
"""
print(f"n Deploying Deep Analysis Agent for: {competitor_name}...")
# 1. Begin the Deep Analysis Agent
# We use the particular agent ID offered in your pattern
strive:
initial_interaction = consumer.interactions.create(
enter=immediate,
agent="deep-research-pro-preview-12-2025",
background=True
)
besides Exception as e:
print(f"Error beginning agent: {e}")
return
print(f" Analysis began. Interplay ID: {initial_interaction.id}")
print("⏳ The agent is now searching the net and studying reviews. This may occasionally take a number of minutes.")
Dadurch wird die folgende Ausgabe erzeugt.
--- Deep Analysis Aggressive Intelligence Engine ---
Enter the title of the competitor to investigate (e.g., Nvidia, Coca-Cola): Nvidia
Deploying Deep Analysis Agent for: Nvidia...
Analysis began. Interplay ID: v1_ChdDdXhiYWN1NEJLdjd2ZElQb3ZHdTBRdxIXQ3V4YmFjdTRCS3Y3dmRJUG92R3UwUXc
The agent is now searching the net and studying reviews. This may occasionally take a number of minutes.
Da wir wissen, dass der Forschungsauftrag einige Zeit in Anspruch nehmen wird, können wir als Nächstes die oben aufgedruckte Interaktions-ID verwenden, um ihn zu überwachen und regelmäßig zu überprüfen, ob er abgeschlossen ist.
Normalerweise erfolgt dies in einem separaten Prozess, der Ihnen eine E-Mail oder SMS sendet, wenn der Forschungsauftrag abgeschlossen ist, damit Sie in der Zwischenzeit mit anderen Aufgaben fortfahren können.
strive:
whereas True:
# Refresh the interplay standing
interplay = consumer.interactions.get(initial_interaction.id)
# Calculate elapsed time
elapsed = int(time.time() - start_time)
# Print a dynamic standing line so we all know it is working
sys.stdout.write(f"r Standing: {interplay.standing.higher()} | Time Elapsed: {elapsed}s")
sys.stdout.flush()
if interplay.standing == "accomplished":
print("nn" + "="*50)
print(f" INTELLIGENCE REPORT: {competitor_name.higher()}")
print("="*50 + "n")
# Print the content material
print(interplay.outputs(-1).textual content)
break
elif interplay.standing in ("failed", "cancelled"):
print(f"nnJob ended with standing: {interplay.standing}")
# Typically error particulars are within the output textual content even on failure
if interplay.outputs:
print(f"Error particulars: {interplay.outputs(-1).textual content}")
break
# Wait earlier than polling once more to respect price limits
time.sleep(10)
besides KeyboardInterrupt:
print("nUser interrupted. Analysis could proceed in background.")
Ich werde nicht das gesamte Forschungsergebnis zeigen, da es ziemlich umfangreich conflict, aber hier ist nur ein Teil davon.
==================================================
📝 INTELLIGENCE REPORT: NVIDIA
==================================================
# Strategic Evaluation & Govt Overview: Nvidia Company (NVDA)
### Key Findings
* **Monetary Dominance:** Nvidia reported report Q3 FY2026 income of **$57.0 billion** (+62% YoY), pushed by a staggering **$51.2 billion** in Information Heart income. The corporate has successfully transitioned from a {hardware} producer to the foundational infrastructure supplier for the "AI Industrial Revolution."
* **Strategic Growth:** Main strikes in late 2025 included a **$100 billion funding roadmap with OpenAI** to deploy 10 gigawatts of compute and a **$20 billion acquisition of Groq's belongings**, pivoting Nvidia aggressively into the AI inference market.
* **Regulatory Peril:** The corporate faces intensifying geopolitical headwinds. In September 2025, China's SAMR discovered Nvidia in violation of antitrust legal guidelines relating to its Mellanox acquisition. Concurrently, the U.S. Supreme Courtroom allowed a class-action lawsuit relating to crypto-revenue disclosures to proceed.
* **Product Roadmap:** The launch of the **GeForce RTX 50-series** (Blackwell structure) and **Mission DIGITS** (private AI supercomputer) at CES 2025 alerts a push to democratize AI compute past the information heart to the desktop.
---
## 1. Govt Abstract
Nvidia Company (NASDAQ: NVDA) stands on the apex of the substitute intelligence transformation, having efficiently developed from a graphics processing unit (GPU) vendor right into a full-stack computing platform firm. As of early 2026, Nvidia just isn't merely promoting chips; it's constructing "AI Factories"-entire knowledge facilities built-in with its proprietary networking, software program (CUDA), and {hardware}.
The fiscal 12 months 2025 and the primary three quarters of fiscal 2026 have demonstrated unprecedented monetary acceleration. The corporate's "Blackwell" structure has seen demand outstrip provide, making a backlog that extends nicely into 2026. Nonetheless, this dominance has invited intense scrutiny. The geopolitical rift between the U.S. and China poses the one biggest risk to Nvidia's long-term progress, evidenced by current antitrust findings by Chinese language regulators and continued smuggling controversies involving restricted chips just like the Blackwell B200.
Strategically, Nvidia is hedging in opposition to the commoditization of AI coaching by aggressively getting into the **inference** market-the part the place AI fashions are used fairly than constructed. The acquisition of Groq's expertise in December 2025 is a defensive and offensive maneuver to safe low-latency processing capabilities.
---
## 2. Monetary Efficiency Evaluation
**Sources:** (cite: 1, 2, 3, 4, 5)
### 2.1. Fiscal 12 months 2025 Annual Report (10-Ok) Highlights
Nvidia's Fiscal 12 months 2025 (ending January 2025) marked a historic inflection level within the expertise sector.
* **Complete Income:** $130.5 billion, a **114% enhance** year-over-year.
* **Internet Revenue:** $72.9 billion, hovering **145%**.
* **Information Heart Income:** $115.2 billion (+142%), confirming the entire shift of the corporate's gravity away from gaming and towards enterprise AI.
* **Gross Margin:** Expanded to **75.0%** (up from 72.7%), reflecting pricing energy and the excessive worth of the Hopper structure.
...
...
...
## 5. SWOT Evaluation
### **Strengths**
* **Technological Monopoly:** Nvidia possesses an estimated 80-90% market share in AI coaching chips. The **Blackwell** and upcoming **Vera Rubin** architectures keep a multi-year lead over rivals.
* **Ecosystem Lock-in (CUDA):** The CUDA software program platform stays the business commonplace. The current growth into "AI Factories" and full-stack options (networking + {hardware} + software program) makes switching prices prohibitively excessive for enterprise clients.
* **Monetary Fortress:** With gross margins exceeding **73%** and free money stream within the tens of billions, Nvidia has immense capital to reinvest in R&D ($100B OpenAI dedication) and purchase rising tech (Groq).
* **Provide Chain Command:** By pre-booking huge capability at TSMC (CoWoS packaging), Nvidia successfully controls the tap of worldwide AI compute provide.
### **Weaknesses**
* **Income Focus:** A good portion of income is derived from a handful of "Hyperscalers" (Microsoft, Meta, Google, Amazon). If these shoppers efficiently pivot to their very own customized silicon (TPUs, Trainium, Maia), Nvidia's income may face a cliff.
* **Pricing Alienation:** The excessive value of Nvidia {hardware} (e.g., $1,999 for shopper GPUs, $30k+ for enterprise chips) is pushing smaller builders and startups towards cheaper alternate options or cloud-based inference options.
* **Provide Chain Single Level of Failure:** Complete reliance on **TSMC** in Taiwan exposes Nvidia to catastrophic threat within the occasion of a cross-strait battle or pure catastrophe.
### **Alternatives**
* **The Inference Market:** The $20B Groq deal positions Nvidia to dominate the *inference* part (operating fashions), which is predicted to be a bigger market than coaching in the long term.
* **Sovereign AI:** Nations (Japan, France, Center Japanese states) are constructing their very own "sovereign clouds" to guard knowledge privateness. This creates a brand new, huge buyer base outdoors of US Large Tech.
* **Bodily AI & Robotics:** With **Mission GR00T** and the **Jetson** platform, Nvidia is positioning itself because the mind for humanoid robots and autonomous industrial techniques, a market nonetheless in its infancy.
* **Software program & Providers (NIMs):** Nvidia is transitioning to a software-as-a-service mannequin with Nvidia Inference Microservices (NIMs), creating recurring income streams which can be much less cyclical than {hardware} gross sales.
### **Threats**
* **Geopolitical Commerce Struggle:** The US-China tech conflict is the existential risk. Additional tightening of export controls (e.g., banning H20 chips) or aggressive retaliation from China (SAMR antitrust penalties) may completely sever entry to one of many world's largest semiconductor markets.
* **Regulatory Antitrust Motion:** Past China, Nvidia faces scrutiny within the EU and US (DOJ) relating to its bundling practices and market dominance. A compelled breakup or behavioral treatments may hamper its "full-stack" technique.
* **Smuggling & IP Theft:** As seen with the DeepSeek controversy, export bans could inadvertently gasoline a black market and speed up Chinese language home innovation (e.g., Huawei Ascend), making a competitor that operates outdoors Western IP legal guidelines.
* **"Good Sufficient" Competitors:** For a lot of inference workloads, cheaper chips from AMD or specialised ASICs could finally turn out to be "adequate," eroding Nvidia's pricing energy on the decrease finish of the market.
...
...
...
Mit der Interactions-API können Sie noch viel mehr tun, als ich gezeigt habe, einschließlich Software- und Funktionsaufrufen, MCP-Integration, strukturierter Ausgabe und Streaming.
Bitte beachten Sie jedoch, dass die Interaktions-API zum Zeitpunkt des Verfassens dieses Artikels noch verfügbar ist Beta, und Googles Deep-Analysis-Agent ist da Vorschau. Dies wird sich in den kommenden Wochen zweifellos ändern, aber es ist am besten, dies zu überprüfen, bevor Sie dieses Software in einem Produktionssystem verwenden.
Weitere Informationen finden Sie unter dem Hyperlink unten zur offiziellen Dokumentationsseite von Google für die Interaktions-API.
https://ai.google.dev/gemini-api/docs/interactions?ua=chat
Zusammenfassung
Die Google Interactions API signalisiert eine Reife im KI-Engineering-Ökosystem. Es erkennt an, dass die „Alles-Eingabeaufforderung“, ein einzelner, riesiger Textblock, der versucht, mit Persönlichkeit, Logik, Werkzeugen und Sicherheit umzugehen, ein Anti-Muster ist.
Mithilfe dieser API können Entwickler, die Google AI verwenden, das Reasoning (die Aufgabe des LLM) effektiv von der Architektur (die Aufgabe des Entwicklers) entkoppeln.
Im Gegensatz zu üblichen Chat-Schleifen, bei denen der Standing implizit ist und zu Halluzinationen neigt, verwendet diese API eine strukturierte „Interaktion“ Ressource, die als permanente Sitzungsaufzeichnung aller Eingaben, Ausgaben und Werkzeugergebnisse dient. Mit Stateful Administration können Entwickler auf eine Interaktions-ID aus einem vorherigen Chat verweisen und automatisch den vollständigen Kontext abrufen. Dadurch kann das Caching optimiert, die Leistung verbessert und die Kosten gesenkt werden, da die Notwendigkeit entfällt, ganze Historien erneut zu senden.
Darüber hinaus ist die Interactions API in einzigartiger Weise in der Lage, asynchrone Agentenprozesse mit hoher Latenz zu orchestrieren, wie z. B. Deep Analysis von Google, das das Net durchsuchen und riesige Datenmengen zu komplexen Berichten zusammenfassen kann. Diese Recherche kann asynchron durchgeführt werden, was bedeutet, dass Sie Aufgaben mit langer Laufzeit starten und einfachen Code schreiben können, der benachrichtigt wird, wenn die Aufgabe abgeschlossen ist, sodass Sie in der Zwischenzeit an anderen Aufgaben arbeiten können.
Wenn Sie einen Assistenten für kreatives Schreiben erstellen, ist eine einfache Chat-Schleife in Ordnung. Wenn Sie jedoch einen Finanzanalysten, einen medizinischen Screener oder eine Deep-Analysis-Engine aufbauen, stellt die Interactions API das nötige Gerüst bereit, um ein probabilistisches Modell in ein zuverlässigeres Produkt umzuwandeln.
