Im Jahr 2016 erklärten die Vereinten Nationen, dass der Zugang zum Internet ein Menschenrecht.
Diese Entscheidung wurde in der Annahme getroffen, dass das Internet ein Werkzeug für jedermann ist, um kostengünstig auf Informationen zuzugreifen und sich auszudrücken.
Diese Entschließung hat eine Diskussion über den Zugang in Bezug auf den Zugang ausgelöst Infrastruktur, in der Glasfaserkabel installiert oder aktualisiert werden, oder um einen ununterbrochenen Zugang bei zivilen Unruhen und anderen Notfällen zu ermöglichen.
Während dies gültige und wichtige Punkte sind, besteht das Internet nicht nur aus Kabeln und Bildschirmen, und die abgerufenen Informationen können auf der Grundlage von Algorithmen geändert werden.
Da das Internet in unser Leben integriert wurde, ist es jetzt Teil unseres Lebens soziale Infrastruktur (ähnlich medizinischen oder pädagogischen Dienstleistungen).
Es ist gut dokumentiert, dass Vorurteile in medizinischen und pädagogischen Bereichen bestehen, einschließlich Zugang zu Pflege und Pflegequalität, aber was ist mit Suchergebnissen?
Sind sie gerecht? Sind sie repräsentativ für die Welt um uns herum? Oder richten sie mehr Schaden als Nutzen an?
Contents
Was steckt in einem Algorithmus?
Im digitalen Marketing ist „Algorithmus“ ist ein Begriff, der täglich herumgeworfen wird, unabhängig davon, ob jemand versteht, was er bedeutet. Jede Plattform hat eine (oder mehrere), und unsere Aufgabe ist es, sie zu befriedigen.
Ein Algorithmus ist eine Prozedur, die befolgt wird, wenn ein System eine Berechnung durchführt.
Dieser Prozess nimmt eine Eingabe und verwendet Formeln, Regeln oder andere Problemlösungsoperationen, um eine Ausgabe zu erzeugen.
Für die Suche bedeutet dies, dass in ein Suchfeld eingegebene Abfragen die Eingabe sind und die SERP (Suchmaschine Ergebnisseite) ist die Ausgabe.
Dies ist eine sehr vereinfachte Erklärung dessen, was passiert. Google verwendet mehrere Algorithmen in Kombination mit KI (Künstliche Intelligenz) und maschinellem Lernen.
Das gesamte System zu zerlegen würde weit über meinen Rahmen und den Zweck dieses Artikels hinausgehen.
Die Kanarienvogel in den SERPs
Als Frau sind mir Vorurteile in Websites, Richtlinien und der Gesellschaft im Allgemeinen nicht fremd.
Jeden Tag bewege ich mich mit einer Prise Salz durch die Welt. Die Untersuchung möglicher Verzerrungen in Suchergebnissen interessiert mich schon seit einiger Zeit, und ich begann 2021 mit der Erforschung des Themas.
Ein originelles Forschungsprojekt (Vollständige Offenlegung: an dessen Durchführung ich mitgewirkt habe) namens Give Us Features, Not Flowers untersuchte die geschlechtsspezifischen Vorurteile in der sozialen und Suchlandschaft für professionelle Fotografen.
Es wurden mehrere geschlechtsneutrale Suchanfragen getestet, z. B. „beste Fotografie-Instagram-Konten” oder „beste Fotografen.“
Die Ergebnisse?
Frauen wurden als professionelle Fotografen weit weniger als Männer in Rich-Suchergebnissen und im Inhalt auf Seite eins vorgestellt, obwohl sie 50 % von Fachleuten.
Wer ist für diese Vorurteile verantwortlich? Die Autoren, die die Artikel geschrieben haben? Suchmaschinen zur Belohnung dieser Seiten? SEO-Profis, weil sie ihren Kunden den Artikel empfohlen haben?
Mein Bauchgefühl ist es, demjenigen die Schuld zu geben, der den Algorithmus entwickelt hat.
Obwohl dies bis zu einem gewissen Grad zutrifft, ist es nicht die ganze Wahrheit ist einfach nicht fair.
Vorurteile sind in unseren bestehenden gesellschaftlichen Strukturen verwurzelt und in unsere Kultur, Regierung und unsere Interaktionen mit der Welt um uns herum verwoben.
Ist der PageRank-Algorithmus voreingenommen ?
Im Jahr 2011 veröffentlichte Forschungsergebnisse haben bereits die Fairness von PageRank in Frage gestellt.
Modelle zeigen, dass mit dem Wachstum des Webs die Stabilität der hochrangigsten Websites stabiler wird, sodass die verbleibenden Websites um Abwrackprämien kämpfen müssen.
Nature, eine Fachzeitschrift mit Peer-Review, veröffentlichte im Februar 2022 einen Artikel Untersuchen des PageRank-Algorithmus, um zu sehen, ob er Vorurteile einführt oder verstärkt.
Um dies einfach auszudrücken, haben Forscher fünf potenzielle Gesellschaftsmodelle mit unterschiedlichem Grad an Homophilie („die Tendenz, sich mit ähnlichen Anderen zu verbinden&rdquo) erstellt ;).
Jedes Modell enthält 20 Knoten, aber bezeichnen wir sie als Websites. Dann wurde jeder Website ein Pagerank zugewiesen und entweder als Teil der Mehrheit oder Minderheit innerhalb der Gesellschaft.
Ungleichheit wurde mit dem Gini-Koeffizienten (einer statistischen Analyse zur Messung von Ungleichheit) gemessen, um zu sehen, wie eine Person abschneidet eine gleichmäßige Verteilung. Ungerechtigkeit wurde gemessen, indem der Prozentsatz von Minderheiten in den oberen Suchergebnissen berechnet wurde.
Ihre Ergebnisse zeigen, dass der PageRank-Algorithmus Vorurteile je nach verwendetem Modell reduzieren, replizieren oder verstärken kann.
In Modellen mit einem hohen Grad an Homophilie hielten die dominanten Stimmen diese Perspektiven und Vorurteile aufrecht, während sie unterrepräsentiert waren Minderheiten.
Andererseits, wenn die Mehrheitsgruppe heterophil ist (die Tendenz, sich in verschiedenen Gruppen zu sammeln), gibt es eine Überrepräsentation von Minderheiten.
Dies legt einige Grundlagen für zukünftige Forschungen zu potenziellen Interventionen oder zur Reduzierung von Verzerrungen durch Algorithmen.
Die Schnittmenge von Kultur und Ergebnissen der Google-Bildsuche
Viele Untersuchungen haben gezeigt, dass Algorithmen voreingenommen sein können und dass viele von ihnen voreingenommen sind. Wie bereits erwähnt, kann PankRank in diese Vorurteile hineinspielen, um sie zu verstärken oder zu verringern, aber Algorithmen handeln nicht allein.
Im Fall von Google spielen nicht nur mehrere Algorithmen eine Rolle, sondern auch KI und maschinelles Lernen . All diese Elemente entwickeln sich kontinuierlich durch unsere (menschlichen) Interaktionen weiter.
Eine weitere Studie, die dieses Jahr veröffentlicht wurde, untersuchte, ob gesellschaftliche geschlechtsspezifische Ungleichheiten in den Ergebnissen der Google-Bildsuche vorhanden waren (über lokalisierte Suchalgorithmen).
Forscher stellten die geschlechtsspezifische Ungleichheit nach Ländern dar (basierend auf dem Global Gender Gap Index). und der Prozentsatz der Männer, die bei der Suche nach „Person” in der jeweiligen Landessprache (unter Verwendung eines VPN für den Zugriff auf lokale Ergebnisse).
Länder mit größerer geschlechtsspezifischer Ungleichheit sahen mehr Bilder von Männern für das geschlechtsneutrale Keyword „Person“. Was sie behaupten, ist eine Verbindung zwischen gesellschaftlichen Normen und algorithmischem Output.
Der zweite Teil der Studie untersuchte, wie diese voreingenommenen Ergebnisse Einzelpersonen beeinflussen können’ Entscheidungsfindung.
Die Teilnehmer sahen sich Screenshots von Google Image-Ergebnissen aus Ländern mit geringer und hoher Ungleichheit an und bekamen Fragen zu Geschlecht und Beruf.
Abgesehen von den Details (obwohl ich denke, dass der Artikel lesenswert ist), zeigten die Ergebnisse, dass die kulturellen Vorurteile, die in Algorithmen vorhanden sind, die individuelle Entscheidungsfindung beeinflussen können (und tun).
Als die Teilnehmer Bildergebnisse sahen aus Ländern mit geringer Ungleichheit waren ihre Ergebnisse egalitärer im Vergleich zu Ergebnissen aus Ländern mit hoher Ungleichheit, wo die Ergebnisse geschlechtsspezifische Vorurteile verstärkten.
Das Ausmaß der gesellschaftlichen Ungleichheit zwischen den Geschlechtern spiegelt sich im Suchalgorithmus wider, was mich zu führt frage mich, wie viel. Die Kombination dieser Elemente beeinflusst dann bei jedem Gebrauch die individuelle Wahrnehmung.
Wer ist verantwortlich für die Verzerrungen in SERPs?
Ich begann diese Reise, indem ich genau diese Frage stellte, in der Hoffnung auf eine einfache Antwort.
Leider gibt es keine, weil wir sind alle verantwortlich für Verzerrungen in den Suchergebnissen. Von den ursprünglichen Programmierern über die Autoren bis hin zu den SEO-Profis und den Link-Erstellern sowie der Gesellschaft, Kultur und der Umgebung, in der wir leben.
Stellen Sie sich all die Algorithmen vor, mit denen Sie täglich interagieren. Wenn der Kontakt mit diesen Algorithmen Ihre Wahrnehmung der Welt beeinflusst, wird es chaotisch und entwirrt die Fäden mehrerer Eingaben.
Wie können wir es besser machen?
Als hoffnungsloser Optimist, Ich kann dich nicht mit einer so schweren Bürde zurücklassen. Lassen Sie uns mit der Diskussion darüber beginnen, wie wir Suche und Inhalt zu einem integrativeren Raum machen können.
Die Forscher, die Vorurteile im PageRank untersuchten, diskutierten, dass homophile Netzwerke Ungleichheiten in der Repräsentation vorantreiben, Minderheiten dies jedoch durch strategische Überwindung überwinden können Netzwerken.
Das ist keine vernünftige Lösung, also schlugen sie vor, DPAH zu implementieren (keine Sorge, ich werde nicht auf die Details eingehen!).
Dieses Modell würde die Notwendigkeit beseitigen, dass Minderheiten mit Mehrheiten vernetzt werden müssen .
Psychologische Interventionen wurden von der anderen Studie vorgeschlagen, da sie zu dem Schluss kamen, dass sich die gesellschaftliche Ungleichheit der Geschlechter im Algorithmus widerspiegelt. Sie fordern eine ethischere KI, die unser Verständnis von Psychologie und Gesellschaft verbindet.
Typischerweise ist die größte Sorge eines SEO-Profis, wie er den Algorithmus ansprechen kann, anstatt seine Gerechtigkeit oder Gleichheit in Frage zu stellen oder wie wir möglicherweise schädliche Vorurteile aufrechterhalten.
Durch die Verwendung von KI-gestützter Software zur Interpretation KI-gestützte Algorithmen, es sollte einen Moment geben, an dem wir anfangen, die ethische Komponente unserer Arbeit in Frage zu stellen.
Derzeit sind Suchergebnisse keine genaue Darstellung einer gerechten Welt, wenn sie es sein können.
Als SEO-Profis, Ersteller von Inhalten und Vermarkter spielen wir eine große Rolle bei der Reproduktion ungerechter Inhalte, der Erhöhung der Sichtbarkeit für bereits große Stimmen und der Aufrechterhaltung unserer lokal-kulturellen Vorurteile.
Hier sind ein paar andere Vorschläge, die ich hatte um eine gerechtere Suchlandschaft zu schaffen.
- Hören Sie auf, voreingenommene Inhalte zu replizieren – Teilen Sie Ihre Plattform mit verschiedenen Stimmen und erstellen Sie neue Erzählungen rund um Ihre Nische.
- Auditieren Sie KI-Inhalte– Ich werde nicht zu allen KI-Inhalten nein sagen, aber sie sollten von einem Menschen überprüft werden, da sie Gefahr laufen, in die gleichen Muster zu fallen.
- Algorithmus-Audits – ähnlich wie wir Websites prüfen, können Algorithmen geprüft werden. Es gibt Ressourcen, um potenzielle Verzerrungen und Folgenabschätzungen zu prüfen.
- Bildung unterstützen– Unterstützen Sie Organisationen oder engagieren Sie sich freiwillig bei Organisationen, die Frauen, Farbigen oder anderen Randgruppen Programmier-, Software- oder technische Schulungen anbieten. Danke an Women in Tech SEO, dass sie einer dieser Bereiche sind.
- Mehrsprachige Ressourcen – Erstellen Sie SEO- und andere Marketingressourcen in anderen Sprachen als Englisch, um Vielfalt zu ermöglichen Stimmen und Perspektiven.
- Erstellen Sie weniger voreingenommene Algorithmen und KI – leichter gesagt als getan, aber Google AI hat KELM letztes Jahr angekündigt, das ein gewisses Potenzial in Bezug auf die Überprüfung von Fakten und den Abbau von Vorurteilen hat
- Stoppt die Gentrifizierung der Suche – Wettbewerbsfeindlich zu sein, ist geschäftsfeindlich. Es unterdrückt neue und vielfältige Stimmen, daher würde ich mir mehr Unternehmen in der Suchlandschaft und mehr Vielfalt bei den Ergebnissen wünschen.
Ich beabsichtige nicht, das letzte Wort zu diesem Thema zu haben, da diese Konversation in Twitter-Threads, auf Konferenzen, beim Kaffee und in unserer täglichen Arbeit fortgesetzt werden sollte.
Bitte teilen Sie uns Ihre Gedanken oder Fragen zu diesem Thema mit, damit wir mit der Diskussion über die Schaffung eines Sucherlebnisses beginnen können, das dies tut der Gesellschaft nicht schaden.