

Bild von Editor | Chatgpt
# Einführung
Wir waren alle dort: Endlos durch On-line -Outlets scrollen und versuchen, das zu finden perfekt Artikel. In der heutigen blitzschnellen E-Commerce-Welt erwarten wir sofortige Ergebnisse, und genau hier tritt die KI ein, um die Dinge aufzurütteln.
Im Zentrum dieser Revolution steht die Einbettung von Bild. Es ist ein ausgefallener Begriff für eine einfache Idee: Sie können nicht nur nach Schlüsselwörtern, sondern nach ihrer nach Produkten suchen visuelle Ähnlichkeit. Stellen Sie sich vor, Sie finden genau das genaue Kleid, das Sie in den sozialen Medien gesehen haben, indem Sie ein Bild hochladen! Diese Technologie macht On-line -Procuring intelligenter, intuitiver und hilft Unternehmen letztendlich dabei, mehr Umsatz zu erzielen.
Bereit zu sehen, wie es funktioniert? Wir zeigen Ihnen, wie Sie die Kraft der maschinellen Lernfunktionen von BigQuery nutzen können, um Ihre eigene KE-gesteuerte Kleidersuche mit diesen unglaublichen Bildempfetten zu erstellen.
# Die Magie der Bildeinbettungen
Im Wesentlichen ist die Bildeinbettung der Prozess des Umwandelns von Bildern in numerische Darstellungen (Vektoren) in einem hochdimensionalen Raum. Bilder, die semantisch ähnlich sind (z. B. ein blaues Ballkleid und ein dunkelblaues Kleid), haben Vektoren, die in diesem Raum „näher“ sind. Dies ermöglicht leistungsstarke Vergleiche und Suchanfragen, die über einfache Metadaten hinausgehen.
Hier sind ein paar Kleiderbilder, die wir in dieser Demo verwenden, um Einbettungen zu erzeugen.

Die Demo veranschaulicht den Prozess des Erstellens eines Modells für Bildeinbettungen in Google Cloud.
Der erste Schritt besteht darin, ein Modell zu erstellen: Ein Modell namens namens image_embeddings_model wird erstellt, was die Nutzung des multimodalembedding@001 Endpunkt in image_embedding Datensatz.
CREATE OR REPLACE MODEL
`image_embedding.image_embeddings_model`
REMOTE WITH CONNECTION `(PROJECT_ID).us.llm-connection`
OPTIONS (
ENDPOINT = 'multimodalembedding@001'
);
Erstellen einer Objekttabelle: Um die Bilder in BigQuery zu verarbeiten, werden wir eine externe Tabelle erstellen, die genannt wird external_images_table im image_embedding Datensatz, mit dem alle in einem Google Cloud -Speicher -Bucket gespeicherten Bilder verweisen.
CREATE OR REPLACE EXTERNAL TABLE
`image_embedding.external_images_table`
WITH CONNECTION `(PROJECT_ID).us.llm-connection`
OPTIONS(
object_metadata="SIMPLE",
uris = ('gs://(BUCKET_NAME)/*'),
max_staleness = INTERVAL 1 DAY,
metadata_cache_mode="AUTOMATIC"
);
Einbettungen erzeugen: Sobald das Modell und die Objekttabelle vorhanden sind, generieren wir die Einbettungen für die Kleiderbilder mit dem oben erstellten Modell und speichern sie in der Tabelle dress_embeddings.
CREATE OR REPLACE TABLE `image_embedding.dress_embeddings` AS SELECT *
FROM ML.GENERATE_EMBEDDING(
MODEL `image_embedding.image_embeddings_model`,
TABLE `image_embedding.external_images_table`,
STRUCT(TRUE AS flatten_json_output,
512 AS output_dimensionality)
);
# Entfesseln Sie die Kraft der Vektorsuche
Wenn Bildeinbettungen erzeugt werden, werden wir die Vektorsuche verwenden, um das Kleid zu finden, das wir suchen. Im Gegensatz zu herkömmlichen Suche, die sich auf genaue Schlüsselwort -Übereinstimmungen stützt, findet die Vektorsuche Elemente basierend auf der Ähnlichkeit ihrer Einbettungen. Dies bedeutet, dass Sie nach Bilderbeschreibungen oder sogar anderen Bildern nach Bildern suchen können.
// Kleidersuche per Textual content
Textsuche durchführen: Hier werden wir die verwenden VECTOR_SEARCH Funktion innerhalb von BigQuery, um unter allen Kleidern nach einem „blauen Kleid“ zu suchen. Der Textual content „Blue Costume“ wird in einen Vektor umgewandelt und mit Hilfe der Vektorsuche werden wir ähnliche Vektoren abrufen.
CREATE OR REPLACE TABLE `image_embedding.image_search_via_text` AS
SELECT base.uri AS image_link, distance
FROM
VECTOR_SEARCH(
TABLE `image_embedding.dress_embeddings`,
'ml_generate_embedding_result',
(
SELECT ml_generate_embedding_result AS embedding_col
FROM ML.GENERATE_EMBEDDING
(
MODEL`image_embedding.image_embeddings_model` ,
(
SELECT "Blue costume" AS content material
),
STRUCT
(
TRUE AS flatten_json_output,
512 AS output_dimensionality
)
)
),
top_k => 5
)
ORDER BY distance ASC;
SELECT * FROM `image_embedding.image_search_via_text`;
Ergebnisse: Die Abfrageergebnisse liefern eine image_link und eine Entfernung für jedes Ergebnis. Sie können sehen, dass die Ergebnisse, die Sie erhalten, die am engste Übereinstimmung in Bezug auf die Suchabfrage und die verfügbaren Kleider.


// Kleidersuche über das Bild
Jetzt werden wir untersuchen, wie wir ein Bild verwenden können, um ähnliche Bilder zu finden. Versuchen wir, ein Kleid zu finden, das wie das folgende Bild aussieht:


Externe Tabelle für Testbild: Wir müssen das Testbild im Google Cloud -Speicher -Eimer speichern und eine externe Tabelle erstellen external_images_test_tableum das für die Suche verwendete Testbild zu speichern.
CREATE OR REPLACE EXTERNAL TABLE
`image_embedding.external_images_test_table`
WITH CONNECTION `(PROJECT_ID).us.llm-connection`
OPTIONS(
object_metadata="SIMPLE",
uris = ('gs://(BUCKET_NAME)/test-image-for-dress/*'),
max_staleness = INTERVAL 1 DAY,
metadata_cache_mode="AUTOMATIC"
);
Generieren Sie Einbettung für das Testbild: Jetzt werden wir die Einbettung für dieses einzelne Testbild verwenden ML.GENERATE_EMBEDDING Funktion.
CREATE OR REPLACE TABLE `image_embedding.test_dress_embeddings` AS
SELECT *
FROM ML.GENERATE_EMBEDDING
(
MODEL `image_embedding.image_embeddings_model`,
TABLE `image_embedding.external_images_test_table`, STRUCT(TRUE AS flatten_json_output,
512 AS output_dimensionality
)
);
Vektorsuche mit Bildeinbettung: Schließlich wird die Einbettung des Testbildes verwendet, um eine Vektorsuche gegen die durchzuführen image_embedding.dress_embeddings Tisch. Der ml_generate_embedding_result aus image_embedding.test_dress_embeddings wird als Einbettung der Abfrage verwendet.
SELECT base.uri AS image_link, distance
FROM
VECTOR_SEARCH(
TABLE `image_embedding.dress_embeddings`,
'ml_generate_embedding_result',
(
SELECT * FROM `image_embedding.test_dress_embeddings`
),
top_k => 5,
distance_type => 'COSINE',
choices => '{"use_brute_force":true}'
);
Ergebnisse: Die Abfrageergebnisse für die Bildsuche zeigten die visuell ähnlichsten Kleider. Das Prime -Ergebnis warfare white-dress mit einem Abstand von 0,2243, gefolgt von sky-blue-dress mit einer Entfernung von 0,3645 und polka-dot-dress mit einem Abstand von 0,3828.

Diese Ergebnisse zeigen deutlich die Fähigkeit, visuell ähnliche Elemente basierend auf einem Eingabebild zu finden.
// Die Wirkung
Diese Demonstration zeigt effektiv, wie Bildeinbettungen und Vektorsuche in Google Cloud revolutionieren können, wie wir mit visuellen Daten interagieren. Von E-Commerce-Plattformen, die „Store ähnliche“ Funktionen bis hin zu Content material-Administration-Systemen für intelligente Erkennung visueller Asset ermöglichen, sind die Anwendungen groß. Durch die Umwandlung von Bildern in durchsuchbare Vektoren entsperren diese Technologien eine neue Dimension der Suche und machen sie intuitiver, leistungsfähiger und visuell intelligenter.
Diese Ergebnisse können dem Benutzer präsentiert werden, sodass er das gewünschte Kleid schnell finden kann.
# Vorteile der KI -Kleidersuche
- Verbesserte Benutzererfahrung: Die visuelle Suche bietet eine intuitivere und effizientere Möglichkeit für Benutzer, zu finden, wonach sie suchen
- Verbesserte Genauigkeit: Bildeinbettungen ermöglichen die Suche nach visueller Ähnlichkeit und liefern relevantere Ergebnisse als herkömmliche keyword-basierte Suche
- Erhöhter Umsatz: Indem die Kunden es den Kunden erleichtern, die gewünschten Produkte zu finden
# Jenseits der Kleidersuche
Durch die Kombination der Leistung von Bildbettendings mit den robusten Datenverarbeitungsfunktionen von BigQuery können Sie revolutionary KI-gesteuerte Lösungen erstellen, die die Artwork und Weise, wie wir mit visuellen Inhalten interagieren, verändern. Von E-Commerce bis hin zu Inhalts Moderation geht die Kraft von Bildeinbettungen und BigQuery über die Kleidersuche hinaus.
Hier sind einige andere potenzielle Anwendungen:
- E-Commerce: Produktempfehlungen, visuelle Suche nach anderen Produktkategorien
- Modedesign: Trendanalyse, Design Inspiration
- Inhalts Moderation: Identifizierung unangemessener Inhalte
- Erkennung von Urheberrechtsverletzungen: visuell ähnliche Bilder finden, um geistiges Eigentum zu schützen
Erfahren Sie mehr über Einbettungen auf BigQuery Hier und Vektorsuche Hier.
Nivedita Kumari ist eine erfahrene Datenanalyse und KI -Profi mit über 10 Jahren Erfahrung. In ihrer aktuellen Rolle nimmt sie als Datenanalyse -Kundendingenieurin bei Google ständig mit Führungskräften der C -Ebene ein und hilft ihnen bei der Architekten von Datenlösungen und führt sie zu bewährten Verfahren, um Daten und maschinelle Lernlösungen auf Google Cloud zu erstellen. Nivedita hat ihren Grasp in Know-how Administration mit Schwerpunkt auf Datenanalysen von der College of Illinois in Urbana-Champaign durchgeführt. Sie möchte maschinelles Lernen und KI demokratisieren und die technischen Hindernisse abbauen, damit jeder Teil dieser transformativen Technologie sein kann. Sie teilt ihr Wissen und ihre Erfahrung mit der Entwicklergemeinschaft, indem sie Tutorials, Führer, Meinungsstücke und Codierungsdemonstrationen erstellt.
Verbinden Sie sich mit Nivedita auf LinkedIn.
