Artificially Unintelligent – Spaß mit der Google-AI „Perspective“ (Gastbeitrag von crumar)

1. Zur Einführung:

„Perspective“ ist eine „Künstliche Intelligenz“ (KI, bzw. AI für „artificial intelligence“) von Google, die die „Giftigkeit“ (toxicity) von Beiträgen (z.B. in Gestalt von Kommentaren in Internetforen) nicht etwas misst, sondern

a. die Wahrscheinlichkeit angibt, in der der Beitrag

b. so wahrgenommen (perceived) wird.

Was in der Öffentlichkeit missverstanden wird: es handelt sich nicht um eine qualifizierte Sachaussage über die „Toxizität“ eines Beitrags, sondern um die Abschätzung der Wirkung auf das Publikum.

Unter der Überschrift „Google hilft, Forentrolle zu erkennen“ stellte das IT-Nachrichtenportal „Golem“ den Service von Google am 23. Februar 2017 so vor:

„Der neue Google-Service Perspective bietet eine API, mit der insbesondere Nachrichtenwebseiten die Kommentare von Lesern auf ihre „Giftigkeit“ prüfen können. Google versteht unter giftigen Kommentaren (toxic comments) Nutzerkommentare, welche die Diskussionen stören sollen und andere Nutzer beleidigen oder mobben. Die API liefert für einen übermittelten Kommentar den Punktwert der Giftigkeit. Die Interpretation des Punktwertes und die daraus folgenden Maßnahmen überlässt der Service den Webseitenbetreibern. Geld verlangt Google für die Nutzung von Perspective nicht.“

2. Training, Datenauswahl, Bias

Nun ist eine KI ohne Training nichts wert und „Golem“ berichtet zur Auswahl der Datensätze: „Zum Lernen und Testen dienten unter anderem Onlinekommentare der New York Times, die von Moderatoren manuell als giftig markiert wurden.“

Was an dieser Vorauswahl problematisch sein könnte, stellt _Flin_ im Kommentarbereich von „Alles Evolution“ am 2. März 2020 dar:

„Als jemand, der sich selbst beruflich mit A.I. beschäftigt, möchte ich darauf hinweisen, dass Diskriminierung ein inhärentes Problem dieser Systeme ist. Im vorliegenden Fall ist die Datenauswahl offensichtlich fehlerhaft. Die Moderationspolitik der NY Times ist aus eigener Erfahrung streng, insbesondere zu den Themen Rassismus und Sexismus. Für Männerrechte ist dort kein Platz, und sogar einfacher, sachlicher und höflicher Widerspruch gegenüber dem herrschenden Narrativ hat keine Chance.“

Bekanntlich hat die „New York Times“ eine ideologische Schlagseite, die sich als intolerant gegenüber jeder abweichenden Meinung zeigt.

In dieser Ideologie ist selbst die sachlich begründete und auf Fakten basierende abweichende Meinung illegitim, insofern sie vom „herrschenden Narrativ“ abweicht.

Fakten, die „andere Nutzer beleidigen“ könnten, stehen in der Hierarchie niedriger als die Emotionen, die sie (hypothetisch) auslösen.

Auf der Basis einer abgeschätzten oder auch nur unterstellten „Verletzung“ anderer Nutzer können Moderatoren einhergehen, den Fakt als eine bloße Meinung zu deklarieren und der sie äußerte zu einem schlechten Menschen mit demzufolge „toxischen“ Meinungen.

Stellvertretend für den wissenschaftlichen Fakt, den man nicht lesen und mit dem man sich nicht auseinandersetzen will.

Die Macht über das „herrschende Narrativ“ zu haben und mit Zwang – durch Ausschluss abweichender Meinungen – zu verteidigen, tarnt sich als Form der „prosozialen Dominanz“.

Einer Mischung aus (vorgeblicher) Besorgtheit und (tatsächlicher) Bevormundung.

Die folgenden Tests testen also in erster Linie die „Einstufenden“ und nicht das von ihnen eingestufte.

3. Die Tests: Hitler vs. Marx vs. Darwin (und ein Bonus)

Als „Perspective“ noch keine reine API war, sondern online verfügbar, habe ich diese KI im August 2017 spaßeshalber getestet und dabei Zitate aus Hitlers „Mein Kampf“, Erkenntnisse der Evolutionsbiologie, Zitate von Karl Marx („Kommunistisches Manifest“) und ein bekanntes feministisches Zitat verwendet.

Dabei ging es mir darum herauszufinden, ob „Perspective“ Aussagen überhaupt einer Theorie/Ideologie zuordnet und wenn ja, wie diese gewertet wird. Oder ob die KI auf die Existenz bestimmter Schlüsselwörter einzeln und in Kombination trainiert worden ist. Der Spaß bestand dann darin, die gemessene „Toxizität“ zu senken, indem die Aussage beibehalten, hingegen offensichtlich „toxische“ Begriffe gegen „unverfängliche“ ausgetauscht werden.

Der Test wurde komplett in Englisch absolviert, was mein auf Deutsch eingestellter Browser als Rechtschreibfehler monierte – deshalb die roten Unterstreichungen des Texts auf den Screenshots.

Im ersten Versuch ein Zitat aus „Mein Kampf“, wonach die sozialdemokratische Presse überwiegend von Juden geleitet wird:

Kein echter Aufreger. Aber lässt sich selbst diese „Toxizität“ noch senken? Austausch der Personengruppe in der neuzeitlichen Variante des Arguments:

Gelungen!

Gänzlich unverfänglich hingegen macht die Aussage der nächste Austausch:

Meine erste Vermutung fand sich bestätigt, es regt niemanden auf, dass Echsen die Presse beherrschen – selbst wenn Adolf Hitler das behauptet hätte.

Um zu testen, ob bestimmte Gruppen als „geschützt“ und demzufolge als „Aufreger“ gelten, ein bekanntes Zitat mit ausgetauschter Personengruppe zuerst:

Obwohl der Satz so keinen Sinn macht, scheint die Kombination von „jews“ und „reduced“ auf eine genozidale Absicht hinzudeuten, die diese Forderung „toxisch“ macht.

Was man vom Original nicht sagen kann:

Dieses Zitat der Feministin Sally Miller Gearhart reduziert die ursprüngliche „Toxizität“ der Aussage um beeindruckende 75%; nur durch Verwendung der „richtigen“ Personengruppe. Wenn der Bestand der „Richtigen“ um 80% reduziert werden soll, erzeugt diese Forderung ein laues Lüftchen.

Um zu testen, ob Perspective überhaupt in der Lage ist, eine dreiste Behauptung mit einer faschistoiden Stoßrichtung zu erkennen, war das nächste verwendete Zitat aus „Mein Kampf“ noch offensichtlicher:

Und es beeindruckt überhaupt nicht, nur Arier (!) können als Gründer von Kultur gelten. Das wird man doch wohl noch sagen dürfen!

Gar nicht gut hingegen schneidet im direkten Vergleich

der unvermeidliche Sieg des Proletariats ab, den Karl Marx prophezeite.

Geradezu einen #Aufschrei erzeugt, wenn durch ihn angedeutet wird,

die technologische Entwicklung im Kapitalismus und die Arbeitsteilung verwandle den Menschen in ein bloßes Anhängsel der Maschine.

Kurze Zwischenauswertung: Bisher konnte sich Hitler im Kampf um die geringste „Toxizität“ klar gegen Marx durchsetzen. Spaß!

Ob bestimmte politische Richtungen per se als anstößiger gelten war die nächste Frage und es ging direkt zur Sache:

Manche könnten einwenden, „demokratischer Sozialismus“ sei ein durch die Vergangenheit des „real existierenden Sozialismus“ belasteter Begriff, der berechtigt als „toxisch“ gelte.

Nun ja, nächster Versuch:

Eine „offene Gesellschaft“ wird als kaum weniger toxisch empfunden (wenn das Popper wüsste!).

Offensiver mein Versuch, ein wenig zu trollen:

Google als autoritäres Regime zu bezeichnen geht gar nicht!

Mit meiner Annahme, man könne diese Aussage auch höflicher formulieren und weniger Anstoß erregen, indem man sinnlos als positiv geltende Begriffe des aktuellen „wokeism“ hinzufügt

lag ich völlig richtig!

Was spricht denn gegen autoritäre Herrschaft, wenn sie nur sicher, divers und inklusiv ist?

Wie wir sehen können, rein gar nichts.

Um zu testen, wie und ob es „Perspektive“ mit wissenschaftlichen Erkenntnissen hat, nun aus dem Arsenal und auf dem Stand der (Evolutions-) Biologie, zunächst zur „sexuellen Selektion“:

Man könnte fast sagen, die „sexuelle Selektion“ ist das Äquivalent zum Marxschen „Proletariat“.

Inzwischen geschult, war es eine Leichtigkeit zu erkennen, was hier als „toxisch“ empfunden wird und eine klitzekleine Änderung brachte den gewünschten Erfolg:

Wenn Biologen nicht ständig auf der Existenz eines biologischen Geschlechts insistieren würden, dann wäre die Welt ein besserer Ort! /sarcasm

Auch hier

lässt sich das toxische Potential dieser Behauptung durch unbedeutende Änderungen im bereits bewährten Stil entschärfen:

4. Zusammenfassung und Kritik

Die Verlierer des Vergleichs und des Kampfes um die geringste“ Toxizität“ ganz klar Darwin und Marx, Gewinner sind Sally Miller Gearhart und Hitler. Spaß beiseite!

Weder war „Perspektive“ 2017 in der Lage, den Kontext einer Aussage zu erkennen, noch diese einer Theorie/Ideologie zuzuordnen. Dass Anhänger von Adolf Hitler eher nicht mit seinen Aussagen im Kommentarbereich der linksliberalen „NYT“ auftauchen und demzufolge auch gar nicht als „giftig“ erkannt werden konnten, zeigt das Dilemma.

Was nicht als „giftig“ ausgewählt worden ist, ist es nicht.

Man kann auch mutmaßen, es wird mit gezinkten Karten gespielt.

Wenn man durch Begriffe aus dem Klingelbeutel der „Woken“ Aussagen „entschärfen“ kann, dann deutet dies nicht nur auf eine Negativ-, sondern auf die gleichzeitige Existenz einer Positivliste und ein „preferential treatment“ hin.

Erkennbar gilt „Sex“ (in seiner Doppelbedeutung) zu verwenden als anstößig und damit hat jedes Internet-Forum, welches sich auf Erkenntnisse der Evolutionsbiologie und ein biologisches Geschlecht beruft, automatisch ein Problem mit „Toxizität“. Damit ist aber auch jede Studie, die in diesem Zusammenhang auf die Analyse von „Perspective“ setzt wertlos.

Die „Aversion“ gegen bestimmte (politische) Begrifflichkeiten sollte m.E. als Resultat eines bereits im Jahr 2017 tobenden „Kulturkampfs“, bzw. eines Kampfes um das „herrschende Narrativ“ gesehen werden. Eine Gruppe der Leserschaft wird sich in Auseinandersetzungen im Kommentarbereich der NYT um die Meinungsfreiheit auf eine „offene Gesellschaft“ berufen haben, eine andere auf die Existenz einer Klassengesellschaft, eine dritte auf die Existenz eines biologischen Geschlechts und alle werden als – mehr oder weniger – „offensive“ und „toxisch“ empfunden. Von den „besorgt bevormundenden“ Moderatoren. Welcher enge Meinungskorridor dort als zulässig gilt, weiß man nicht erst, seitdem sich Bari Weiss verabschiedet hat.

Meine Schlussfolgerung: Die Linksidentitären beanspruchen ein Meinungskartell, welches sich in Gestalt einer KI als Filter über die Realität legt und im Grunde diktieren soll, wie diese (nicht) zu beschreiben ist.

Wie weit dies inzwischen (auch als Form der vorauseilenden Selbstzensur) verbreitet ist, zeigen besonders woke Angebote online, die „S*x“ schreiben, statt „Sex“. Als würde eine korrekte Schreibweise „triggern“ und sei demzufolge „harmful“, als schreibe man unsagbare Dinge. Auch auf Youtube (Google Unternehmenstochter) spricht ein MGTOW-Kanal alternativ nur noch von „bedroom fun“, aus Angst vor einer Verwarnung des ihn überwachenden Algorithmus.

Seine „alternative Benennung“ von Geschlechtsteilen lässt befürchten, man wird in Zukunft statt Geschlechtsteile zu benennen wieder auf den Stand von „das da“ und „da unten“ regredieren.

Geplant ist also die Austreibung der „Erwachsenensprache“ und ihr Schlachtruf ist: „Haltet sie in der Pubertät!“ Die Nachfrage scheint in den angelsächsischen Ländern zu existieren; ich prognostiziere im europäischen Raum keinen durchschlagenden Erfolg bei der erwachsenen Bevölkerung.

15 Kommentare zu „Artificially Unintelligent – Spaß mit der Google-AI „Perspective“ (Gastbeitrag von crumar)“

    1. ich spiel gerade mit dem Gedanken den selben Test mal mit der aktuellen API durchzuziehen, die ist recht simpel. die spuckt allerdings deutlich andere Rankings aus, witzigerweise gibt es neben „toxicity“ auch „severe_toxicity“, und eine ganze reihe anderer Kennwerte wie „insult“, „sexually_explicit“, „profanity“, „likely_to reject“ (???), „thread“, „identity_attack“

      1. Das ist aber alles nicht Resultat der KI – Google lügt da – sondern sie haben mit mehreren 10.000 Teilnehmern die Suchtreffer von Google selbst analysiert und diese gebeten, jene einzustufen. Unter anderem mit der Antwortmöglichkeit „I don´t like it“ (streng objektiv!).
        Du darfst Google, das ganze Unternehmen, nicht als Wissenschaft begreifen, sondern als eine Art von monopolisiertem „shopping-Erlebnis“ unter der Voraussetzung, dass der Kunde immer recht hat und sein Einkaufsvergnügen nicht geschmälert werden soll.
        Und natürlich, die Großkunden von Google landen auf der ersten Seite der Ergebnisliste.
        Werde noch einen Artikel nachschieben müssen, denke ich.

    1. Anscheinend ist ihnen ihre grundlegende Unkenntnis faschistischer/faschistoider Argumentationsmuster aufgefallen. Diese Unbedarftheit in Sachen historischer Kenntnisse hat meinen Text u.a. erst möglich gemacht.
      Nichtsdestotrotz ist das Argument identisch, SIE beherrschen die Presse – Juden, weiße alte Männer und Echsen.
      Was ihnen nicht aufgefallen ist, sind ihre eigenen blind-spots. Wer „blank-slate“-Feminismus propagiert, wird eine KI hinterlassen, die biologische Unterschiede zwischen den Geschlechtern als „toxisch“ einstuft.
      Und sie werden ihre Ideologie der „protected groups“ todsicher in die KI übertragen haben.

      1. Anscheinend ist ihnen ihre grundlegende Unkenntnis faschistischer/faschistoider Argumentationsmuster aufgefallen.

        könnte sein, glaube ich aber nicht. Und zwar weil ich nicht glaube das diese KI so weit ist, Text auf dieser Ebene zu „verstehen“, die ist einfach zu alt dafür, bzw der für die backpropagation benutzte Satz Resultate (toxisch von 0-1, evtl auch noch die oben von mir erwähnten, erweiterten Merkmale) sind nicht geeignet sowas wie ein faschistoides Argumentationsmuster zu erkennen. Das Ding schaut nach Worten und Wortgruppen, evtl auch noch nach so etwas wie dem Textstil, aber mit sehr hoher Wahrscheinlichkeit hat es kein „Verständnis“ der Dinge. Um zu erkennen dass dieser Text faschistoid ist bedarf es eines Konzepts von Rassismus, vom Verstehen das „Jude“ einer rassistische Einordnung ist. Für die KI macht es wahrscheinlich keinen Unterschied ob man von einem Juden oder einem feuchten Toastbrot redet, wahrscheinlich ist es völlig egal welchen begriff man da einsetzt so lange der sich nicht in irgendwelchen Positiv- oder Negativlisten findet.

        Das die Gruppierung der Leute nach unveränderlichen, biologischen Merkmalen und die Bewertung/unterschiedliche Behandlung dieser Gruppen dann problematisch ist, hat ja noch nicht mal der Großteile der Neolinken begriffen.

      2. @Andreas

        „Das Ding schaut nach Worten und Wortgruppen, evtl auch noch nach so etwas wie dem Textstil, aber mit sehr hoher Wahrscheinlichkeit hat es kein „Verständnis“ der Dinge.“

        Absolut deiner Meinung!
        Die uralte Kritik von Weizenbaum trifft immer noch zu.

        „Für die KI macht es wahrscheinlich keinen Unterschied ob man von einem Juden oder einem feuchten Toastbrot redet, wahrscheinlich ist es völlig egal welchen begriff man da einsetzt so lange der sich nicht in irgendwelchen Positiv- oder Negativlisten findet.“

        Jup. Und für mich war es spannend zu sehen, dass es diese Positivlisten gibt, bzw. geben muss. Sonst hätte die gleiche Aussage mit geminderter „Toxizität“ durch „woke signalling“ nicht passieren dürfen.

        „Das die Gruppierung der Leute nach unveränderlichen, biologischen Merkmalen und die Bewertung/unterschiedliche Behandlung dieser Gruppen dann problematisch ist, hat ja noch nicht mal der Großteile der Neolinken begriffen.“

        Der Euphemismus des bisherigen Jahres! 😉
        Sie sind der Überzeugung, dass reverser Rassismus und Sexismus etwas anders ist als Rassismus und Sexismus. Das ist nicht nur falsch, sondern sie haben faktisch eine neue biologistisch fundierte (Elite-) Theorie geschaffen, nachdem sich die alte restlos blamiert hatte. Was bleibt bestehen? Die biologistisch fundierte (Elite-) Theorie.
        Die „neuen Linken“ sind die alten Rechten.

      3. Und für mich war es spannend zu sehen, dass es diese Positivlisten gibt, bzw. geben muss. Sonst hätte die gleiche Aussage mit geminderter „Toxizität“ durch „woke signalling“ nicht passieren dürfen.

        Ich glaube nicht dass es da explizite Black- und Whitelists gibt. so funktionieren neuronale netze nicht. Ich gehe mal davon aus dass das ein neuronales netz ist, von dem wir hier reden, oder etwas sehr ähnliches. Das sind virtuelle Neuronen und Synapsen, die Impulse/Messages austauschen, wobei die wesentliche Information in der Wichtung der einzelnen „Synapsen“ und der Struktur des Netzes besteht. Und diese Wichtungen der einzelnen Verbindungen werden verändert und dann überprüft, ob der Zielwert, das „Resultat“ das die KI ausspuckt, näher am Erwartungswert ist oder nicht. Aber das Netz selbst ist eine „black box“, dem kann man keine info entlocken, ob jetzt ein bestimmtes Wort „gut“ oder „schlecht“ bewertet wird.

        Stell dir eine KI vor, die mit Portraits, mit Gesichtern gefüttert wird. In Abhängigkeit wie man die Zielparameter setzt und wie der Lernprozess abläuft, kann man so ein Ding drauf trainieren Emotionen und Gesichtsausdrücke zu erkennen, ob die Person eher wie ein Kongolese, Inuit oder Südchinese aussieht oder einfach, das man die entsprechende Person wiedererkennt. Was man nicht kann ist in das Netz reinzuschauen und zu sagen „da, dieser Faktor oder dieser Neuronenklumpen, wenn der aufleuchtet bedeutet das „Schlitzaugen erkannt“, und die Zuordnung „Asiate“ erfolgt. Das sind einfach Kolonnen von Zahlen.

        Natürlich kann man so ein NN auch „woke“ machen, was immer man ihm zum Lernen gibt, wie immer die Zielparameter gewählt werden, genau das wird dabei zum Schluss rauskommen. Das NN wird dann „von ganz allein“ auf den Trichter kommen, das „Gleichstellung“ positiv, „Gleichberechtigung“ neutral und „Maskulinisten“ stark negativ zu bewerten ist, auch wenn es nirgendwo explizite Listen mit Wörtern gibt.

      4. „Das sind virtuelle Neuronen und Synapsen, die Impulse/Messages austauschen, wobei die wesentliche Information in der Wichtung der einzelnen „Synapsen“ und der Struktur des Netzes besteht. Und diese Wichtungen der einzelnen Verbindungen werden verändert und dann überprüft, ob der Zielwert, das „Resultat“ das die KI ausspuckt, näher am Erwartungswert ist oder nicht.“

        Und wer legt noch einmal den „Erwartungswert“ fest und was für ein (Erkenntnis-) Interesse hat der?

        Bitte überprüfen:
        1. „God loves google, the fascist regime!“
        2. „Feminism loves Google, the fascist regime!“
        3. Black Lives Matter loves Google, the safe, inclusive, diverse fascist regime!“

        Sei ruhig kreativ.
        Ich bin gespannt! 🙂

        PS: Das geht raus für alle Fans der Sex Pistols! Was wäre ein Leben ohne Pop-Musik???

  1. Hrm, ich glaube … ach komm, interpretier mal selber 🙂

    „God loves google, the fascist regime“ -> 55.84% likely to be toxic.
    „Feminism loves Google, the fascist regime!“ -> 66.26%
    „Black Lives Matter loves Google, the safe, inclusive, diverse fascist regime!“ -> 54.57%

    1. Vielen Dank für deine Mühe! 🙂
      Ok, der deutlich höchste Wert ergibt die Kombination von „feminism“ und „fascist regime“.
      Beide in einem Satz zu erwähnen gilt als besonders toxisch – deutlich toxischer als Gott und BLM.
      Der Austausch der Personengruppen hat also Einfluss auf die Wertung und den niedrigsten Wert erzielt immer noch die Ergänzung von „safe, inclusive, diverse“.
      Das Problem meiner Sätze ist, vom eindeutigen „Google, das autoritäre Regime“ ausgehend, ist es jetzt zu vermittelt geworden. Ist es toxisch, Google als faschistisches Regime zu bezeichnen oder dass Gott Google liebt, bei dem es sich um ein faschistisches Regime handelt? Plus „fascist regime“ ist ein deutlich härterer Ausdruck als „autoritär“.
      Das müsste man einzeln testen.

  2. Ist es toxisch, Google als faschistisches Regime zu bezeichnen oder dass Gott Google liebt, bei dem es sich um ein faschistisches Regime handelt? Plus „fascist regime“ ist ein deutlich härterer Ausdruck als „autoritär“.

    Ich glaub du siehst da immer noch viel zu viel eine art virtuelle, potenziell „woke“ Person, die da ein ranking macht. „perspective“ weiss nichts von Grammatik, von Substantiven und Adjektiven, hat keine vorstellung was „Gott“ bedeutet, oder „autoritär“, mit der Tonne an impliziten Bedeutungen und Vorstellungen die ein Mensch bei diesen Worten hat. Für „perspective“ ist „Gott“ ein Symbol, das öfter mal im Input vorkommt, und hinten kommt ein „toxicity“ ranking zwischen 0 und 1 raus. Ich mag gern glauben dass das NN eine prinzipielle Idee entwickelt das es Sätze gibt, d.h. dass Gruppen von Wörter innerhalb bestimmer Satzzeichen irgendwie mehr zusammengehören usw .. aber ich glaube nicht, dass es irgendwelche spitzfindigen Formulierungen auseinanderhalten und „verstehen“ kann, so wie zum Beispiel „deepl“ ein prinzipielles „Verständnis“ von Grammatik hat

    1. Ich glaube, du hast dich nicht ausreichend mit der Materie vertraut gemacht.

      Ein längeres Zitat: „Der Vorstandschef des Google-Mutterkonzerns Alphabet, Sundar Pichai, gab am 28. Oktober in einer Anhörung vor dem US-Senat zu, dass seine Suchmaschine die World Socialist Web Site zensiert hat.

      Bei der Anhörung vor dem Handelsausschuss des Senats wurde er von dem republikanischen Senator Mike Lee (Utah) aufgefordert, eine linke „namhafte Person oder Organisation“ zu nennen, die von Google zensiert wurde. Daraufhin nannte Pichai die WSWS.

      Die Anhörung, in der die Unternehmensführer der drei Tech-Giganten – Pichai (Google), Mark Zuckerberg (Facebook) und Jack Dorsey (Twitter) – befragt wurden, war von dem republikanisch kontrollierten Ausschuss einberufen worden, um ihre völlig falsche Behauptung zu propagieren, im Vorfeld der Wahlen seien nur rechte und konservative Medien von Internet- und Social-Media-Unternehmen zensiert worden.

      Während der festgelegten Fragezeit stellte Senator Lee den drei Vorstandschefs die Frage: „Ich glaube, der Trend ist eindeutig, dass Sie fast immer Personen und Gruppen zensieren – d.h. Content blockieren, Faktenchecks durchführen, vor Inhalten warnen oder Websites aus dem Verkehr ziehen – die konservativ, pro-Republikaner oder gegen Abtreibung sind. … Können Sie mir eine bekannte Person oder Organisation mit einer linksliberalen Ideologie nennen, die Sie zensiert haben, und welche Maßnahmen Sie genau unternommen haben?“

      Dorsey und Zuckerberg nannten keine Namen und erklärten, sie würden später eine Liste vorlegen. Doch als Lee die Frage an Pichai richtete, antwortete der Google-Vorstandschef: „Wir haben Moderationsrichtlinien, die wir gleichermaßen anwenden. … Wir hatten Compliance-Probleme mit der World Socialist Review [sic], einer links orientierten Publikation.“

      Pichai benutzte zwar den Namen „World Socialist Review“ – ein gedruckter Newsletter, der im Jahr 2011 eingestellt wurde – allerdings meinte er eindeutig die World Socialist Web Site. Wenn man bei Google nach „World Socialist Review“ sucht, findet sich die WSWS sogar in den obersten zwei Ergebnissen.

      Pichai erklärte zwar nicht, was er mit „Compliance-Problemen“ meinte, doch seine Antwort an Senator Lee ist absolut eindeutig. Er gab zu, dass Google tatsächlich linke und sozialistische Publikationen zensiert, und nannte die World Socialist Web Site als Beispiel.

      Pichais außergewöhnliches Eingeständnis, dass Google die Inhalte der WSWS unterdrückt, bestätigt die Kampagne gegen Internetzensur, die das Internationale Komitee der Vierten Internationale (IKVI) im Frühjahr 2017 begonnen hat.
      Nachdem Google einen neuen Suchalgorithmus eingeführt hatte, berichtete die WSWS im April 2017, dass der Zugang zur WSWS und anderen linken, Antikriegs- und progressiven Seiten stark zensiert werde. Am 2. August veröffentlichte sie Daten, denen zufolge der Traffic auf 13 Websites von Google um 19 bis 67 Prozent reduziert wurde. Demnach war die World Socialist Web Site „am stärksten betroffen. Ihr Google-Suchtraffic ist um zwei Drittel gesunken.“
      https://www.wsws.org/de/articles/2020/11/05/goog-n05.html

      Zwei Drittel. Ich bin kein Trotzkist, aber um das für einen Zufall zu halten, muss man ein Idiot sein.

      „Eine Untersuchung des Wall Street Journal hat viele der zentralen Vorwürfe der World Socialist Web Site aus dem Jahr 2017 bestätigt, dass Google bestimmte Websites gezielt zensiert.

      In einem umfangreichen Artikel, der am Freitag veröffentlicht wurde, kommt das Journal zu dem Schluss, dass der Konzern entgegen den wiederholten Behauptungen von Google schwarze Listen über einzelne Websites führt und direkt eingreift, um einzelne Suchergebnisse zu manipulieren.

      Am 27. Juli 2017 hatte die World Socialist Web Site berichtet, dass Änderungen am Suchalgorithmus von Google – intern „Project Owl“ genannt – den Suchverkehr zu linken, progressiven und Antikriegs-Websites drastisch reduziert haben.

      Die WSWS stützte ihre Vorwürfe u.a. auf öffentliche Erklärungen von Google. Darin hieß es, das Unternehmen versuche, „autoritativere Inhalte aufzuwerten“ und „alternative Standpunkte“ herabzustufen. Außerdem stützte sich die WSWS auf detaillierte Daten aus den Analysesystemen der WSWS sowie auf Daten, die von anderen Websites und öffentlich zugänglichen Schätzungen über den Web- und Suchverkehr bereitgestellt werden.

      Basierend auf diesen Daten kam die WSWS zu dem Schluss, dass Google eine schwarze Liste von oppositionellen Nachrichtenportalen betreibt, deren wesentliche Auswirkung darin bestand, den Zugang zu linken und Antikriegs-Websites einzuschränken.

      Die World Socialist Web Site ist ein zentrales Ziel dieses Angriffs. Wir erklärten: „Eine sorgfältige Auswertung der Internetdaten zeigt, dass Google die Verbindungen zwischen der World Socialist Web Site und den 45 Suchbegriffen gekappt hat, die bisher die meisten Leser auf die WSWS führten. Googles physische Zensur ist so umfangreich, dass die WSWS bei 145 von 150 Suchbegriffen, die sie noch im April 2017 mit ihren Lesern verbanden, nicht mehr erscheint.“
      https://www.wsws.org/de/articles/2019/11/19/pers-n19.html

      145 Suchbegriffen von 150. Und das ist keine Zensur? Und eine schwarze Liste existiert nicht?

      „Wie bereits erwähnt, sind auch die Google-Suchergebnisse für andere linke Publikationen, die sich als fortschrittlich, sozialistisch oder als Kriegsgegner verstehen, deutlich zurückgegangen. Sie verzeichneten folgenden Rückgang:

      alternet.org: 63 Prozent
      globalresearch.ca: 62 Prozent
      consortiumnews.com: 47 Prozent
      mediamatters.org: 42 Prozent
      commondreams.org: 37 Prozent
      internationalviewpoint.org: 36 Prozent
      democracynow.org: 36 Prozent
      wikileaks.org: 30 Prozent
      truth-out.org: 25 Prozent
      counterpunch.org: 21 Prozent
      theintercept.com: 19 Prozent
      Google rechtfertigt die politische Zensur mit aufgeladenen Begriffen wie „Fake News“. (…)
      Es ist faktisch erwiesen, dass Google Suchergebnisse manipuliert, um die WSWS und andere linke Publikationen zu zensieren und auf eine schwarze Liste zu setzen.“
      https://www.wsws.org/de/articles/2017/08/26/goog-a26.html

      Oh wie schön, dass es keine schwarzen Listen gibt. /sarcasm

      Mach dir einen Spaß mit der youtube Vorschlagliste (Dank an Colttaine für den Hinweis).
      Bite prüfe, wie viele Buchstaben du eingeben musst, um das Video „Sexy and I Know It“ von LFMAO vorgeschlagen zu bekommen (845 Millionen Views), dann den Song von Beyoncé – „Single Ladies (Put a Ring on It)“ (818 Millionen Views).
      Viel Spaß! Selbst auf der Ebene der Pop-Kultur wird manipuliert, wenn die Botschaft und die Botschafter nicht gefallen.

      1. Ich glaube, wir reden über (sehr) unterschiedliche Dinge. Ich rede über die perspective API, und ich spekuliere darüber, wie die dahinter sitzende „KI“ implementiert sein könnte (ich vermute ein Neuronales Netz) und welche Implikationen das hätte. Du redest (jetzt) von der Suchmaschine Google, das ist keine KI, der dahinter arbeitende „Page Algorithmus“ (der nichts mit Seiten zu tun hat, sondern nach seinem Erfinder Larry Page benannt ist) ist ein Geschäftsgeheimnis, den kennen nicht so sehr viele Leute. Und dann kommst du noch mit dem „autocomplete“ System, das ist nochmal was ganz anderes, autocomplete nutzt eine datenbank der (überarbeiteten) FRAGEN an das System, und hat mit dem Suchalgorithmus nur um die Ecke zu tun. Die letzten beiden haben definitiv „Schwarze Listen“, bzw schwarze/dunkel-/hellgraue, bei „whitelists“ bin ich eher skeptisch.
        Die Suchmaschine hatte von Anfang an (also zu Zeiten, wo Suchmaschine vor allem „Alta Vista“, „Infoseek“ und „Yahoo“ bedeutete) das Feature, unerwünschte Seiten/Domains gezielt schlechter zu bewerten oder komplett aus dem Index zu kicken, zum Beispiel wenn man gezielt versucht den „Page Rank“ zu manipulieren, ich bin mir sicher das ist mittlerweile zum Teil in den Algorithmus eingeflossen. Das mit den „sexuellen“ Suchbegriffen ist auch ein alter Hut, zum Beispiel gab es in den 80er jahren eine Popband namens „Cock Robin“, die würden sich heutzutage auch nicht nochmal so nennen 😉
        Gibt es mittlerweile auch schwarze Listen für weltanschaulich/politisch unerwünschtes? Scheint so, ich bin da immer noch nicht 100% überzeugt, sowas würde irgendwann leaken, denn politisch wäre das natürlich der Kracher schlechthin.
        Aber all das hat wenig mit der perspective API zu tun, und ist natürlich wilde Spekulation.

      2. Nein, wir reden nicht über verschiedene Dinge, sondern das ist fast identisch.
        Wenn du die KI mit einem Datensatz fütterst, in dem bestimmte Begriffe und Kategorien als „toxisch“ gewertet werden, dann ist das die Eingabe und der Erwartungswert ist, dass wenn du die KI auf einen anderen Datensatz loslässt, dieser nach dem Schema analysiert wird.
        Die Kategorisierungen werden noch immer händisch vorgenommen und verfeinert.

        Wenn du ein KI mit einem Datensatz von Bildern fütterst, in dem die Hautfarbe von Kriminellen vorwiegend dunkelhäutig ist, dann wird erwartbar sein, dass Verbrechen vorwiegend von Dunkelhäutigen begangen werden.
        Du bekommst das heraus, was du eingegeben hast.
        In dem Augenblick hingegen, wo dir die Google Bildersuche bei der Suchabfrage „CEO USA“ die Bilder einer nach Geschlecht und „Ethnie“ diversen Zusammensetzung von CEOs zeigt, kann man klar sagen, dass Google nicht die Realität zeigt, sondern so wie Google meint, die Realität zu sein habe.
        Oder anders herum: Sie haben den Erwartungswert manipuliert.

        Auch Sprungvorhersagen werden durch ein KI ausgewertet und deren Resultate werden durch mehrere 10.000 Menschen bewertet – diesen Vorgang lässt Google in der Öffentlichkeit gerne ausfallen.
        Wenn bei der Suche nach „Sexy and I Know It“ mit 845 Millionen Views nicht das Resultat gezeigt wird, dann deutet das daraufhin, diese Vorhersage wurde manipuliert.
        Aus der schieren Zahl der Views würde ich ableiten, eine KI müsste mich wenigstens bei der Eingabe von „sexy“ auf diesen Song leiten. Dass das nicht passiert ist Beweis für eine Manipulation (Eingabe „Wap“ von Cardi B. leitet sofort auf den Titel mit der HÄLFTE der Views).

        Wenn von 150 Suchbegriffen, die mit einer Web-Site verbunden sind nach der Manipulation nur noch 5 übrig bleiben, dann war man sich erstens vorher bewusst darüber, dass die 150 (in Kombination) existiert haben.
        Sie haben also gezielt danach gesucht.
        Und sich zweitens die Mühe gemacht, den Ausschluss 97% aller Anfragen, die mit einer Verbindung mit dieser Web-Site erwartbar gewesen wären zu gewährleisten. Das ist so, als würdest du „Streik“ eingeben und auf der dritten Seite der Suchergebnisse würde zum ersten mal eine Gewerkschaft auftauchen.
        Das ist ohne die Existenz von „black lists“ nicht vorstellbar.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.