um das Posten von vollständig durch KI generierten Beiträge.
Ja, das Problem ist, wo man die Grenze zieht und ob man es immer korrekt erkennt. Selbst wenn man es erkennt, zählt imho am Schluss, was effektiv an Informationen vorhanden ist, ob es Hand und Fuss hat, ob es hilfreich ist usw. Das sollten die Kriterien sein.
Offensichtlichen Slop sollte man moderieren. Den gab es aber auch früher schon, da nannte man das Spam oder „low effort” Posts. Das Gleiche gilt für Falschinformationen, unabhängig davon, ob diese Posts via KI generiert wurden oder nicht.
Woher die Leute ihre Informationen letztlich haben, die sie mit mehr oder weniger KI-Unterstützung hier reinpasten, weiss man letztendlich sowieso nicht. Und da muss man sich sicher keine Illusionen machen. Das Genie ist aus der Flasche raus, und es wird in Zukunft Threads geben, in denen nur noch AI miteinander redet (gibt es wahrscheinlich jetzt schon, zumindest indirekt, wenn jeder ChatGPT oder Claude fragt, bevor er seine Fragen und Antworten hier postet). Solange jedoch noch ein Mensch involviert ist, der die Chat-Bots bedient und bei Bedarf die Antworten anpasst, bevor er sie postet, ist das in meinen Augen in Ordnung – sofern die obigen Kriterien bezüglich des Inhalts erfüllt sind, auch wenn Anpassungen rein über Prompting entstanden sind... "Hey chat GPT, mach mal die Emojis und de Em dashes weg!"
Was nicht geht meiner Meinung nach, ist, einen Post hier zu kopieren, in einen Chatbot zu pasten und dann die erste Antwort einfach 1:1 hier hereinzupasten. Noch nicht, aber irgendwann wird man auch das immer weniger erkennen, denn die KI wird noch besser werden. Aber das wäre dann der Punkt, an dem man keine Foren mehr braucht. Das wird aber noch dauern.
