Daten unterscheiden sich häufig von regulären Analysen, hauptsächlich aufgrund von Herausforderungen in Bezug auf die Zeitabhängigkeit, auf die jeder Datenwissenschaftler irgendwann stößt.

Was wäre, wenn Sie Ihre Analyse mit nur dem beschleunigen und verbessern könnten richtige Eingabeaufforderung?

Große Sprachmodelle (LLMs) sind bereits bahnbrechend für die Zeitreihenanalyse. Wenn Sie LLMs mit kombinieren schlau Durch die schnelle Entwicklung können sie Türen zu Methoden öffnen, die die meisten Analysten noch nicht ausprobiert haben.

Sie sind hervorragend darin, Muster zu erkennen, Anomalien zu erkennen und Prognosen zu erstellen.

Dieser Ratgeber stellt Bewährtes zusammen Strategien die von der einfachen Datenvorbereitung bis hin zur erweiterten Modellvalidierung reichen. Am Ende verfügen Sie über praktische Werkzeuge, die Ihnen helfen einen Schritt voraus.

Alles hier wird unterstützt von Forschung und Beispiele aus der Praxis, sodass Sie praktische Werkzeuge erhalten, nicht nur Theorie!

Dies ist der erste Artikel einer zweiteiligen Serie, die sich mit dem Wie beschäftigt schnelles Engineering kann Ihre Zeitreihenanalyse verbessern:

  • Teil 1: Eingabeaufforderungen für Kernstrategien in Zeitreihen (dieser Artikel)
  • Teil 2: Fordert zur erweiterten Modellentwicklung auf

👉Alles Aufforderungen in diesem Artikel finden Sie unter Ende dieses Artikels als Spickzettel 😉

In diesem Artikel:

  1. Kern-Immediate-Engineering-Strategien für Zeitreihen
  2. Fordert zur Vorverarbeitung und Analyse von Zeitreihen auf
  3. Anomalieerkennung mit LLMs
  4. Function Engineering für zeitabhängige Daten
  5. Schnelles Engineering Spickzettel!

1. Kern-Immediate-Engineering-Strategien für Zeitreihen

1.1 Patchbasierte Eingabeaufforderung für Prognosen

Patch Instruct Framework
Ein guter Trick besteht darin, eine Zeitreihe in überlappende „Patches“ zu unterteilen und diese Patches mithilfe strukturierter Eingabeaufforderungen einem LLM zuzuführen. Dieser Ansatz heißt PatchInstruct ist sehr effektiv und die Genauigkeit bleibt ungefähr gleich.

Beispielimplementierung:

## System  
You're a time-series forecasting professional in meteorology and sequential modeling.  
Enter: overlapping patches of measurement 3, reverse chronological (most up-to-date first).  

## Person  
Patches:  
- Patch 1: (8.35, 8.36, 8.32)  
- Patch 2: (8.45, 8.35, 8.25)  
- Patch 3: (8.55, 8.45, 8.40)  
...  
- Patch N: (7.85, 7.95, 8.05)  

## Process  
1. Forecast subsequent 3 values.  
2. In ≤40 phrases, clarify latest pattern.  

## Constraints  
- Output: Markdown record, 2 decimals.  
- Guarantee predictions align with noticed pattern.  

## Instance  
- Enter: (5.0, 5.1, 5.2) → Output: (5.3, 5.4, 5.5).  

## Analysis Hook  
Add: "Confidence: X/10. Assumptions: (...)".

Warum es funktioniert:

  • Der LLM erkennt kurzfristige zeitliche Muster in den Daten.
  • Verwendet weniger Token als Rohdaten-Dumps (additionally geringere Kosten).
  • Hält die Dinge interpretierbar, da Sie die Patches später neu erstellen können.

1.2 Zero-Shot-Eingabeaufforderung mit kontextbezogenen Anweisungen

Stellen wir uns vor, Sie benötigen eine schnelle Ausgangslage Vorhersage.

Nullschuss Aufforderung mit Kontext funktioniert dafür. Geben Sie dem Modell einfach eine klare Beschreibung des Datensatzes, der Häufigkeit und des Prognosehorizonts und es kann Muster ohne zusätzliches Coaching erkennen!

## System  
You're a time-series evaluation professional specializing in (area).  
Your process is to establish patterns, tendencies, and seasonality to forecast precisely.  

## Person  
Analyze this time sequence: (x1, x2, ..., x96)  
- Dataset: (Climate/Site visitors/Gross sales/and so on.)  
- Frequency: (Each day/Hourly/and so on.)  
- Options: (Checklist options)  
- Horizon: (Quantity) durations forward  

## Process  
1. Forecast (Quantity) durations forward.  
2. Notice key seasonal or pattern patterns.  

## Constraints  
- Output: Markdown record of predictions (2 decimals).  
- Add ≤40-word rationalization of drivers.  

## Analysis Hook  
Finish with: "Confidence: X/10. Assumptions: (...)".

1.3 Neighbor-Augmented Prompting

Manchmal reicht eine Zeitreihe nicht aus. Wir können „Nachbar“-Serien hinzufügen, die ähnlich sind, und dann ist das LLM in der Lage, gemeinsame Strukturen zu erkennen und Vorhersagen zu verbessern:

## System  
You're a time-series analyst with entry to five comparable historic sequence.  
Use these neighbors to establish shared patterns and refine predictions.  

## Person  
Goal sequence: (present time sequence knowledge)  

Neighbors:  
- Sequence 1: ( ... )  
- Sequence 2: ( ... )  
...  

## Process  
1. Predict the subsequent (h) values of the goal.  
2. Clarify in ≤40 phrases how neighbors influenced the forecast.  

## Constraints  
- Output: Markdown record of (h) predictions (2 decimals).  
- Spotlight any divergences from neighbors.  

## Analysis Hook  
Finish with: "Confidence: X/10. Assumptions: (...)".

2. Eingabeaufforderungen zur Vorverarbeitung und Analyse von Zeitreihen

2.1 Stationaritätstest und Transformation

Eines der ersten Dinge, die Datenwissenschaftler tun müssen, bevor sie Zeitreihendaten modellieren, besteht darin, zu prüfen, ob die Zeitreihen vorhanden sind stationär.

Ist dies nicht der Fall, müssen sie Transformationen wie Differenzierung, Log oder Field-Cox anwenden.

Aufforderung zum Testen auf stationäre und Anwenden von Transformationen

## System  
You're a time-series analyst.  

## Person  
Dataset: (N) observations  
- Time interval: (specify)  
- Frequency: (specify)  
- Suspected pattern: (linear / non-linear / seasonal)  
- Enterprise context: (area)  

## Process  
1. Clarify how one can check for stationarity utilizing:  
   - Augmented Dickey-Fuller  
   - KPSS  
   - Visible inspection  
2. If non-stationary, counsel transformations: differencing, log, Field-Cox.  
3. Present Python code (statsmodels + pandas).  

## Constraints  
- Maintain rationalization ≤120 phrases.  
- Code must be copy-paste prepared.  

## Analysis Hook  
Finish with: "Confidence: X/10. Assumptions: (...)".

2.2 Autokorrelation und Lag-Function-Analyse

Autokorrelation in Zeitreihen misst, wie stark aktuelle Werte sind korreliert mit ihren eigenen Vergangenheitswerten bei unterschiedlichen Verzögerungen.

Mit den richtigen Plots (ACF/PACF), können Sie Verzögerungen beobachten, die am wichtigsten sind, und Funktionen um sie herum entwickeln.

Aufforderung zur Autokorrelation

## System  
You're a time-series professional.    

## Person  
Dataset: (transient description)  
- Size: (N) observations  
- Frequency: (day by day/hourly/and so on.)  
- Uncooked pattern: (first 20–30 values)  

## Process  
1. Present Python code to generate ACF & PACF plots.  
2. Clarify how one can interpret:  
   - AR lags  
   - MA parts  
   - Seasonal patterns  
3. Suggest lag options based mostly on important lags.  
4. Present Python code to engineer these lags (deal with lacking values).  

## Constraints  
- Output: ≤150 phrases rationalization + Python snippets.  
- Use statsmodels + pandas.  

## Analysis Hook  
Finish with: "Confidence: X/10. Key lags flagged: (record)".

2.3 Saisonale Zerlegung und Trendanalyse

Die Zerlegung hilft Ihnen, die Geschichte hinter den Daten zu erkennen und sie anders zu sehen Schichten: Pattern, Saisonalität und Residuen.

Aufforderung zur saisonalen Zerlegung

## System  
You're a time-series professional.   

## Person  
Knowledge: (time sequence)  
- Suspected seasonality: (day by day/weekly/yearly)  
- Enterprise context: (area)  

## Process  
1. Apply STL decomposition.  
2. Compute:  
   - Seasonal energy Qs = 1 - Var(Residual)/Var(Seasonal+Residual)  
   - Pattern energy Qt = 1 - Var(Residual)/Var(Pattern+Residual)  
3. Interpret pattern & seasonality for enterprise insights.  
4. Suggest modeling approaches.  
5. Present Python code for visualization.  

## Constraints  
- Maintain rationalization ≤150 phrases.  
- Code ought to use statsmodels + matplotlib.  

## Analysis Hook  
Finish with: "Confidence: X/10. Key enterprise implications: (...)".

3. Anomalieerkennung mit LLMs

3.1 Direkte Aufforderung zur Anomalieerkennung

Die Erkennung von Anomalien in Zeitreihen ist normalerweise keine unterhaltsame Aufgabe und erfordert viel Zeit.

LLMs können wie wachsame Analysten agieren und Fremdwerte in Ihren Daten erkennen.

Aufforderung zur Anomalieerkennung

## System  
You're a senior knowledge scientist specializing in time-series anomaly detection.  

## Person  
Context:  
- Area: (Monetary/IoT/Healthcare/and so on.)  
- Regular working vary: (specify if recognized)  
- Time interval: (specify)  
- Sampling frequency: (specify)  
- Knowledge: (time sequence values)  

## Process  
1. Detect anomalies with timestamps/indices.  
2. Classify as:  
   - Level anomalies  
   - Contextual anomalies  
   - Collective anomalies  
3. Assign confidence scores (1–10).  
4. Clarify reasoning for every detection.  
5. Recommend potential causes (domain-specific).  

## Constraints  
- Output: Markdown desk (columns: Index, Kind, Confidence, Rationalization, Attainable Trigger).  
- Maintain narrative ≤150 phrases.  

## Analysis Hook  
Finish with: "General confidence: X/10. Additional knowledge wanted: (...)".

3.2 Prognosebasierte Anomalieerkennung

Anstatt Anomalien direkt zu betrachten, besteht eine weitere kluge Strategie darin, vorherzusagen, was zuerst passieren „sollte“, und dann zu messen, wo die Realität von diesen Erwartungen abweicht.

Diese Abweichungen können hervorgehoben werden Anomalien das würde sonst nicht auffallen.

Hier ist eine gebrauchsfertige Eingabeaufforderung, die Sie ausprobieren können:

## System  
You're an professional in forecasting-based anomaly detection.  

## Person  
- Historic knowledge: (time sequence)  
- Forecast horizon: (N durations)  

## Technique  
1. Forecast the subsequent (N) durations.  
2. Evaluate precise vs forecasted values.  
3. Compute residuals (errors).  
4. Flag anomalies the place |precise - forecast| > threshold.  
5. Use z-score & IQR strategies to set thresholds.  

## Process  
Present:  
- Forecasted values  
- 95% prediction intervals  
- Anomaly flags with severity ranges  
- Advisable threshold values  

## Constraints  
- Output: Markdown desk (columns: Interval, Forecast, Interval, Precise, Residual, Anomaly Flag, Severity).  
- Maintain rationalization ≤120 phrases.  

## Analysis Hook  
Finish with: "Confidence: X/10. Threshold technique used: (z-score/IQR)".

4. Function Engineering für zeitabhängige Daten

Intelligente Funktionen können über Erfolg oder Misserfolg Ihres Modells entscheiden.

Es sind einfach zu viele Optionen: Verzögerungen bei rollierenden Fenstern, zyklischen Funktionen und externen Variablen. Sie können viel hinzufügen, um Zeitabhängigkeiten zu erfassen.

4.1 Automatisierte Function-Erstellung

Die wahre Magie entfaltet sich, wenn man sinnvolle Konstruktionen durchführt Merkmale diese Aufnahme Traits, SaisonalitätUnd zeitliche Dynamik. LLMs können tatsächlich dabei helfen, diesen Prozess zu automatisieren, indem sie eine Vielzahl nützlicher Funktionen für Sie generieren.

Umfassende Function-Engineering-Eingabeaufforderung:

## System  
You're a function engineering professional for time sequence.  

## Person  
Dataset: (description)  
- Goal variable: (specify)  
- Temporal granularity: (hourly/day by day/and so on.)  
- Enterprise area: (context)  

## Process  
Create temporal options throughout 5 classes:  
1. **Lag Options**  
   - Easy lags, seasonal lags, cross-variable lags  
2. **Rolling Window Options**  
   - Shifting averages, std/min/max, quantiles  
3. **Time-based Options**  
   - Hour, day, month, quarter, 12 months, DOW, WOY, is_weekend, is_holiday, time since occasions  
4. **Seasonal & Cyclical Options**  
   - Fourier phrases, sine/cosine transforms, interactions  
5. **Change-based Options**  
   - Variations, pct adjustments, volatility measures  

## Constraints  
- Output: Python code utilizing pandas/numpy.  
- Add quick steerage on function choice (significance/collinearity).  

## Analysis Hook  
Finish with: "Confidence: X/10. Options most impactful for (area): (...)".

4.2 Externe Variablenintegration

Es kann vorkommen, dass die Zielserie nicht ausreicht, um die ganze Geschichte zu erklären.

Es gibt externe Faktoren die oft unsere Daten beeinflussen, wie Wetter, Wirtschaftsindikatoren oder besondere Ereignisse. Sie können Kontext hinzufügen und Prognosen verbessern.

Der Trick besteht darin, zu wissen, wie man sie richtig integriert, ohne zeitliche Regeln zu brechen. Hier ist eine Aufforderung, exogene Variablen in Ihre Analyse einzubeziehen.

Eingabeaufforderung für exogene Variablen:

## System  
You're a time-series modeling professional.  
Process: Combine exterior variables (exogenous options) right into a forecasting pipeline.  

## Person  
Major sequence: (goal variable)  
Exterior variables: (record)  
Knowledge availability: (previous solely / future recognized / blended)  

## Process  
1. Assess variable relevance (correlation, cross-correlation).  
2. Align frequencies and deal with resampling.  
3. Create interplay options between exterior & goal.  
4. Apply time-aware cross-validation.  
5. Choose options suited to time-series fashions.  
6. Deal with lacking values in exterior variables.  

## Constraints  
- Output: Python code for  
  - Knowledge alignment & resampling  
  - Cross-correlation evaluation  
  - Function engineering with exterior vars  
  - Mannequin integration:  
    - ARIMA (with exogenous vars)  
    - Prophet (with regressors)  
    - ML fashions (with exterior options)  

## Analysis Hook  
Finish with: "Confidence: X/10. Most impactful exterior variables: (...)".

Letzte Gedanken

Ich hoffe, dieser Leitfaden hat Ihnen viel zum Verdauen und Ausprobieren gegeben.

Es handelt sich um eine Toolbox voller erforschter Techniken zur Verwendung von LLMs in der Zeitreihenanalyse.

Erfolg Bei Zeitreihendaten entsteht dann, wenn wir die Besonderheiten zeitlicher Daten respektieren, Eingabeaufforderungen erstellen, die diese Besonderheiten hervorheben, und alles mit den richtigen Bewertungsmethoden validieren.

Vielen Dank fürs Lesen! Seien Sie gespannt auf Teil 2 😉


👉 Holen Sie sich den vollständigen Immediate-Spickzettel In Saras AI Automation Digest Wir helfen Technikprofis jede Woche dabei, echte Arbeit mit KI zu automatisieren. Sie erhalten außerdem Zugriff auf eine KI-Toolbibliothek.

ich biete Mentoring zum Thema Karriereentwicklung und Übergang Hier.

Wenn Sie meine Arbeit unterstützen möchtendu kannst kauf mir mein Lieblingskaffee: ein Cappuccino. 😊


Referenzen

LLMs für Predictive Analytics und Zeitreihenprognosen

Intelligentere Zeitreihenvorhersagen mit weniger Aufwand

Vorhersage von Zeitreihen mit LLMs über Patch-basierte Eingabeaufforderung und Zerlegung

LLMs in Zeitreihen: Datenanalyse in KI transformieren

kdd.org/exploration_files/p109-Time_Series_Forecasting_with_LLMs.pdf

Von admin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert