• EddyBot@discuss.tchncs.de
    link
    fedilink
    arrow-up
    2
    ·
    2 days ago

    Ehrlich gesagt suche ich immer noch nach guten Beispielen welche verzerrt von den amerikanischen LLMs dargestellt werden. Mit den Infos das Sklaverei maßgeblich zum Sezessionskrieg beigetragen hat oder während der europäischen Kolonisierung von Amerika massiv Einheimische versklavt und getötet wurden, bleibt keiner hinterm Berg.

    Natürlich kann sich das bei neueren LLMs jetzt ändern, einfach weil man es politisch durchdrückt.

    • fantasty@programming.dev
      link
      fedilink
      arrow-up
      2
      ·
      edit-2
      2 days ago

      ChatGPT hat(te) einen ziemlichen Bias gegen die Palästinenser. Darüber wurde sich viel beschwert und bei neueren Modellen wurde das wohl so gut es geht gepatched, nachdem es viele Beschwerden gab. Auf Deutsch funktioniert das immer noch.

      Ist nicht so eindeutig wie Tiananmen Square, aber wenn man sich den neoliberalen Hut aufsetzt, dann kriegt man auch anderweitig erwartbare Ergebnisse.

      Fragt man z.B. die Gerechtigkeitsfrage für den Iran, die Ukraine oder die Uyghuren, ist es ein klares Ja. Wenn es dann um den Kongo geht (looking at you Belgien) dann kriegt man die „Blabla es ist kompliziert“ Antwort. Also es ist immer dann kompliziert, wenn neoliberale Interessen mit im Spiel sind und es ist immer dann eindeutig, wenn es um die „Systemgegner“ geht.

      Das ganze ist aber nicht so offensichtlich zensiert sondern resultiert mMn eher aus der Sprache, die unsere größtenteils neoliberale Presse benutzt.

    • DrunkenPirate@feddit.org
      link
      fedilink
      arrow-up
      1
      ·
      2 days ago

      Ich habe das grade mal getestet mit ein paar Themen und es ist tatsächlich deutlich besser geworden. Nichts destotrotz wird das alles mit westlichen Gedankengut trainiert, sprich westlichem Internetkrams. Das entspricht natürlich subtil unserer Gedankenwelt. Das nehmen wir vermutlich nicht mal wahr, sondern nur Menschen ausserhalb unseres Kulturkreises.