Google bietet ein KI-Tool zur Bildklassifizierung an, das Bilder analysiert, um sie zu klassifizieren Inhalte und ordnen Sie ihnen Labels zu.
Das Tool ist als Demonstration von Google Vision gedacht, das die Bildklassifizierung automatisiert skalieren kann, aber auch als eigenständiges Tool verwendet werden kann, um zu sehen, wie ein Bilderkennungsalgorithmus aussieht Ihre Bilder und wofür sie relevant sind.
Selbst wenn Sie die Google Vision-API nicht zum Skalieren der Bilderkennung und -klassifizierung verwenden, bietet das Tool einen interessanten Einblick in die Möglichkeiten der bildbezogenen Algorithmen von Google, was es interessant macht, Bilder hochzuladen, um zu sehen, wie Google Der Vision-Algorithmus klassifiziert sie.
Dieses Tool demonstriert die KI- und maschinellen Lernalgorithmen von Google zum Verstehen von Bildern.
Es ist Teil der Cloud Vision API-Suite von Google, die eine Vision-Maschine bietet Lernmodelle für Apps und Websites.
Contents
Spiegelt das Cloud Vision Tool den Algorithmus von Google wider?
Dies ist nur ein maschinelles Lernmodell und kein Ranking-Algorithmus.
Es ist also unrealistisch, dieses Tool zu verwenden und dies zu erwarten spiegeln etwas über den Bildranking-Algorithmus von Google wider.
Es ist jedoch ein großartiges Tool, um zu verstehen, wie die Algorithmen für KI und maschinelles Lernen von Google Bilder verstehen können, und es wird einen lehrreichen Einblick in den heutigen Fortschritt bieten ;s sehbezogene Algorithmen sind.
Die von diesem Tool bereitgestellten Informationen können verwendet werden, um zu verstehen, wie eine Maschine verstehen könnte, worum es in einem Bild geht, und möglicherweise eine Vorstellung davon zu liefern, wie genau dieses Bild zum Gesamtthema einer Webseite passt.
Warum ist ein Bild? Nützlich für das Klassifizierungstool?
Bilder können eine wichtige Rolle bei der Sichtbarkeit in der Suche und der Klickrate spielen, da Webseiteninhalte auf verschiedene Weise bei Google angezeigt werden.
Potenzielle Website-Besucher, die ein Thema recherchieren, verwenden Bilder, um zum richtigen Inhalt zu navigieren.
Daher kann die Verwendung attraktiver Bilder, die für Suchanfragen relevant sind, in bestimmten Kontexten hilfreich sein, um schnell zu kommunizieren, dass eine Webseite für das, wonach eine Person sucht, relevant ist.
Das Google Vision-Tool bietet eine Möglichkeit dazu Verstehen Sie, wie ein Algorithmus ein Bild in Bezug auf den Inhalt des Bildes anzeigen und klassifizieren kann.
Google’Richtlinien für Bild-SEO empfehlen:
„Hochwertige Fotos sprechen Nutzer mehr an als verschwommene, undeutliche Bilder. Außerdem sind scharfe Bilder im Ergebnis-Thumbnail ansprechender für Nutzer und erhöhen die Wahrscheinlichkeit, dass Nutzer Zugriffe erhalten.“
Wenn das Vision-Tool Probleme hat, zu erkennen, worum es in dem Bild geht, dann kann dies ein Signal dafür sein, dass potenzielle Website-Besucher möglicherweise auch die gleichen Probleme haben und sich entscheiden, die Website nicht zu besuchen.
Was ist das Google Image Tool?
Das Tool ist ein Möglichkeit, die Cloud Vision-API von Google zu demonstrieren.
Die Cloud Vision API ist ein Dienst, der es Apps und Websites ermöglicht, sich mit dem maschinellen Lerntool zu verbinden und Bildanalysedienste bereitzustellen, die skaliert werden können.
Das eigenständige Tool selbst ermöglicht es Ihnen, ein Bild hochzuladen, und es teilt es Ihnen mit wie der maschinelle Lernalgorithmus von Google ihn interpretiert.
Auf der Cloud Vision-Seite von Google wird beschrieben, wie der Dienst wie folgt verwendet werden kann:
„Cloud Vision ermöglicht Entwicklern die einfache Integration von Funktionen zur visuellen Erkennung in Anwendungen, darunter Bildkennzeichnung, Erkennung von Gesichtern und Orientierungspunkten, optische Zeichenerkennung (OCR) und Tagging von expliziten Inhalten.“
Dies sind fünf Möglichkeiten, wie die Bildanalysetools von Google hochgeladene Bilder klassifizieren:
- Gesichter.
- Objekte.
- Labels.
- Eigenschaften.
- Sichere Suche.
Gesichter
Die “Gesichter” Registerkarte bietet eine Analyse der durch das Bild ausgedrückten Emotionen.
Die Genauigkeit dieses Ergebnisses ist ziemlich genau.
Das folgende Bild zeigt eine Person, die als verwirrt beschrieben wird, aber das ist nicht wirklich eine Emotion.
Die KI beschreibt die im Gesicht ausgedrückte Emotion als überrascht, mit einem Vertrauenswert von 96 %.
Vom Autor erstelltes zusammengesetztes Bild , Juli 2022; Bilder stammen von Google Cloud Vision API und Shutterstock/Cast Of Thousands
Objects
Die „Objekte” Registerkarte zeigt, welche Objekte sich im Bild befinden, wie Brillen, Personen usw.
Das Tool identifiziert Pferde und Personen genau.
Zusammengesetztes Bild erstellt vom Autor, Juli 2022; Bilder stammen von Google Cloud Vision API und Shutterstock/Lukas Gojda
Labels
Die „Etiketten” Registerkarte zeigt Details über das Bild, die Google erkennt, wie Ohren und Mund, aber auch konzeptionelle Aspekte wie Porträt und Fotografie.
Dies ist besonders interessant, weil es zeigt, wie tief die Bild-KI von Google verstehen kann, was sich in einem befindet Bild.
Zusammengesetztes Bild erstellt vom Autor, Juli 2022; Bilder stammen von Google Cloud Vision API und Shutterstock/Lukas Gojda
Verwendet Google das als Teil des Ranking-Algorithmus? Das ist etwas, das nicht bekannt ist.
Eigenschaften
Eigenschaften sind die im Bild verwendeten Farben.
Screenshot von Google Cloud Vision API, Juli 2022
Ein Oberflächlich betrachtet ist der Sinn dieses Tools nicht offensichtlich und scheint etwas nutzlos zu sein.
Aber in Wirklichkeit können die Farben eines Bildes sehr wichtig sein, insbesondere für ein Beitragsbild.
Bilder, die eine sehr große Farbpalette enthalten, können ein Hinweis auf ein schlecht ausgewähltes Bild mit aufgeblähter Größe sein , worauf Sie achten sollten.
Eine weitere nützliche Erkenntnis über Bilder und Farben ist, dass Bilder mit einem dunkleren Farbbereich tendenziell zu größeren Bilddateien führen.
In Bezug auf SEO , kann der Property-Abschnitt nützlich sein, um Bilder auf einer ganzen Website zu identifizieren, die gegen Bilder mit weniger aufgeblähter Größe ausgetauscht werden können.
Außerdem sollten Sie auf gedeckte oder sogar in Graustufen dargestellte Farbbereiche für vorgestellte Bilder achten, da vorgestellte Bilder ohne lebendige Farben in den sozialen Medien, bei Google Discover und Google News in der Regel nicht auffallen.
Zum Beispiel Präsentierte Bilder, die lebendig sind, können leicht gescannt werden und erhalten möglicherweise eine höhere Klickrate (CTR), wenn sie in den Suchergebnissen oder in Google Discover angezeigt werden, da sie besser ins Auge fallen als Bilder, die stumm und in den Hintergrund treten .
Es gibt viele Variablen, die die CTR-Leistung von Bildern beeinflussen können, aber dies bietet eine Möglichkeit, den Prozess der Prüfung der Bilder einer gesamten Website zu erweitern.
eBay führte eine Studie zu Produktbildern und CTR durch entdeckten, dass Bilder mit helleren Hintergrundfarben tendenziell eine höhere CTR haben.
Die eBay-Forscher stellten fest:
“In diesem Dokument stellen wir fest, dass die Produktbildfunktionen dies können Einfluss auf das Suchverhalten der Nutzer haben.
Wir stellen fest, dass einige Bildmerkmale mit der CTR in einer Produktsuchmaschine korrelieren und dass diese Merkmale bei der Modellierung der Klickrate für Shopping-Suchanwendungen helfen können.
Diese Studie kann Verkäufern einen Anreiz bieten, besser einzureichen Bilder für Produkte, die sie verkaufen.“
Anekdotisch kann die Verwendung lebhafter Farben für vorgestellte Bilder hilfreich sein, um die CTR für Websites zu erhöhen, die auf Zugriffe von Google Discover und Google News angewiesen sind.
Offensichtlich gibt es viele Faktoren, die sich auf die CTR von Google Discover und Google News auswirken. Aber ein Bild, das sich von den anderen abhebt, kann hilfreich sein.
Aus diesem Grund kann es für eine skalierte Prüfung von Bildern hilfreich sein, das Vision-Tool zu verwenden, um die verwendeten Farben zu verstehen.
Sichere Suche
Sichere Suche zeigt, wie das Bild für unsichere Inhalte eingestuft wird. Die Beschreibungen potenziell unsicherer Bilder lauten wie folgt:
- Erwachsene.
- Spoof.
- Medizinisch.
- Gewalt.
- Rassig.
Die Google-Suche verfügt über Filter, die eine Webseite auf unsichere oder unangemessene Inhalte auswerten.
Aus diesem Grund ist der Abschnitt „Sichere Suche“ des Tools sehr wichtig, denn wenn ein Bild unbeabsichtigt einen Safe-Search-Filter auslöst, wird der Die Webseite wird möglicherweise nicht für potenzielle Website-Besucher eingestuft, die nach Inhalten auf der Webseite suchen.
Screenshot aus Google Cloud Vision API, Juli 2022
Der obige Screenshot zeigt die Auswertung eines Fotos von Rennpferden auf einer Rennstrecke. Das Tool erkennt genau, dass das Bild keine medizinischen oder nicht jugendfreien Inhalte enthält.
Text: Optische Zeichenerkennung (OCR)
Google Vision hat eine bemerkenswerte Fähigkeit, Text zu lesen, der darin enthalten ist ein Foto.
Das Vision-Tool kann den Text im folgenden Bild genau lesen:
Zusammengesetztes Bild, erstellt vom Autor, Juli 2022; Bilder stammen von Google Cloud Vision API und Shutterstock/Melissa King
Wie oben zu sehen ist, hat Google die Fähigkeit (durch Optical Character Recognition, auch bekannt als OCR), Wörter in Bildern zu lesen.
Das ist jedoch kein Hinweis darauf, dass Google OCR für Suchrankingzwecke verwendet.
Tatsache ist, dass Google die Verwendung von Wörtern um Bilder empfiehlt, um zu verstehen, worum es in einem Bild geht, und es kann der Fall sein, dass Google selbst bei Bildern mit Text immer noch auf die Wörter angewiesen ist, die das Bild umgeben, um zu verstehen, worum es in dem Bild geht handelt von und ist relevant für.
Die Google-Richtlinien zur Bild-SEO betonen wiederholt die Verwendung von Wörtern, um Bildern einen Kontext zu geben.
“Indem mehr Kontext um Bilder hinzugefügt wird, werden Ergebnisse erzielt kann viel nützlicher werden, was zu qualitativ hochwertigem Traffic auf Ihrer Website führen kann.
…Platzieren Sie Bilder wann immer möglich in der Nähe von relevantem Text.
…Google extrahiert Informationen über das Thema des Bildes aus dem Inhalt der Seite…
…Google verwendet alternativen Text zusammen mit Computer-Vision-Algorithmen und dem Inhalt der Seite, um das Thema des Bildes zu verstehen.“
Aus der Dokumentation von Google geht sehr klar hervor, dass Google vom Kontext abhängt den Text um die Bilder, um zu verstehen, worum es in dem Bild geht.
Tipps
Das Vision AI-Tool von Google bietet eine Möglichkeit, die Vision AI von Google zu testen, damit ein Publisher eine Verbindung herstellen kann über eine API darauf zugreifen und es verwenden, um die Bildklassifizierung zu skalieren und Daten für die Verwendung innerhalb der Website zu extrahieren.
Aber es gibt auch einen Einblick, wie weit Algorithmen für die Bildkennzeichnung, Annotation und optische Zeichenerkennung sind kommen Sie mit.
Laden Sie hier ein Bild hoch, um zu sehen, wie es klassifiziert ist und ob eine Maschine es genauso sieht das tust du.