Kennt ihr den schon? Frau bittet ChatGPT, den Kaffeesatz zu lesen (nein, wirklich!), ob ihr Mann fremdgeht.
ChatGPT so: ja, tut er.
Die Frau so: Reicht Scheidung ein. So offenbar geschehen in Griechenland (Webseite ist auf griechisch).
Der Vater wird jetzt das alleinige Sorgerecht für die beiden Kinder beantragen.

Das wollte ich euch nicht vorenthalten.

  • jlow (he / him)@discuss.tchncs.de
    link
    fedilink
    arrow-up
    36
    ·
    2 days ago

    Mein „Keine weiteren Fragen, euer Ehren“-Moment mit Menschen & Ai-Rotz war ganz zu Anfang als der Schmutz aufkam eine Story von einem Freund, der bei Kleinanzeigen einen Lattenrost verkauft hat und als die Person mit einem sehr kleinen Auto kam um den abzuholen, fragte er, ob sie sicher ist, dass das hinhaut und die Person meinte dann: „Ja, ich hab ChatGPT gefragt“.

    Tja.

    • eta@feddit.org
      link
      fedilink
      English
      arrow-up
      11
      ·
      2 days ago

      Die Frage war bestimmt so präzise formuliert wie “kann man mit einem Auto einen Lattenrost transportieren?”. Das sind dann bestimmt auch die Leute die immer in ganzen Sätzen googeln.

      • TheodorAlforno@feddit.org
        link
        fedilink
        arrow-up
        2
        arrow-down
        1
        ·
        2 days ago

        Es ist sehr sinnvoll in ganzen Sätzen zu googeln, da Google schon seit Jahren versucht, die Intension hinter einer Suchanfrage zu ermitteln.

        • eta@feddit.org
          link
          fedilink
          English
          arrow-up
          2
          ·
          2 days ago

          Echt? Ich fahre bis jetzt immer noch gut damit hauptsächlich Stichworte zu suchen außer wenn ich Fragen hab die auch genaus so in einem Forum beantwortet worden sein können.

    • B-TR3E@feddit.org
      link
      fedilink
      arrow-up
      3
      ·
      2 days ago

      Irgendwie fehlt da die Schlußpointe. Hat es am Ende funktioniert? Falls ja, wäre das zumindest interessant. Andernfalls natürlich lustiger und würde rhetorisch durch die Wiederholung des Offensichtlichen leiden. Trotzdem taugt die Geschichte so, wie sie ist tatsächlich nur zur Bestätigung des jeweiligen Vorurteils des Lesers und bringt keinen echten Erkenntnisgewinn. Prinzipiell funktionieren genau so übrigens rechte Fakenews bzw. Halbwahrheiten: das tatsächliche Ende bleibt offen, das Vorurteil bestehen. Nicht, dass ich ChatGPT über den Weg trauen würde, aber etwas Kritik tut durchaus auch bei Information, die einem ins Welbild passen würde, not.